ผลรวมของความแปรปรวนของส่วนประกอบ PLS ทั้งหมดโดยปกติจะน้อยกว่า 100%
มีหลายรูปแบบของกำลังสองน้อยที่สุด (PLS) สิ่งที่คุณใช้ที่นี่คือการถดถอย PLSของตัวแปรตอบสนอง univariateไปยังหลายตัวแปร ; อัลกอริธึมนี้เป็นที่รู้จักกันในชื่อ PLS1 (ตรงข้ามกับตัวแปรอื่น ๆ ดูRosipal & Kramer, 2006, ภาพรวมและความก้าวหน้าล่าสุดในสี่เหลี่ยมบางส่วนน้อยสำหรับภาพรวมโดยย่อ) PLS1 ต่อมาแสดงให้เห็นว่าเทียบเท่ากับสูตรที่เรียกว่า SIMPLS (ดูข้อมูลเพิ่มเติมที่Jong 1988ใน Rosipal & Kramer) มุมมองที่ได้รับจาก SIMPLS ช่วยให้เข้าใจสิ่งที่เกิดขึ้นใน PLS1XyX
ปรากฎว่าสิ่งที่ PLS1 ทำคือการหาลำดับของโปรเจคเชิงเส้นเช่นนั้น:ti=Xwi
- ความแปรปรวนระหว่างและสูงสุดทีฉันyti
- น้ำหนักเวกเตอร์ทั้งหมดมีความยาวหน่วย ;∥wi∥=1
- คอมโพเนนต์ PLS สองตัวใด ๆ (หรือที่เรียกว่าคะแนนเวกเตอร์)และไม่ได้รับการกันtitj
โปรดทราบว่าเวกเตอร์น้ำหนักไม่จำเป็นต้องเป็น (และไม่ใช่) มุมฉาก
ซึ่งหมายความว่าหากประกอบด้วยตัวแปรและคุณพบส่วนประกอบ PLS คุณจะพบพื้นฐานที่ไม่มีมุมฉากพร้อมการคาดการณ์ที่ไม่เกี่ยวข้องในเวกเตอร์พื้นฐาน หนึ่งทางคณิตศาสตร์สามารถพิสูจน์ได้ว่าในสถานการณ์เช่นผลรวมของความแปรปรวนของการคาดการณ์เหล่านี้จะน้อยลงแล้วความแปรปรวนรวมของX พวกมันจะเท่ากันถ้าเวกเตอร์น้ำหนักเป็น orthogonal (เช่นใน PCA) แต่ใน PLS นี่ไม่ใช่กรณีXk=1010X
ฉันไม่รู้เกี่ยวกับหนังสือหรือเอกสารใด ๆที่กล่าวถึงปัญหานี้อย่างชัดเจน แต่ก่อนหน้านี้ฉันได้อธิบายไว้ในบริบทของการวิเคราะห์จำแนกเชิงเส้น (LDA) ที่ให้การคาดการณ์จำนวน uncorrelated กับเวกเตอร์น้ำหนักที่ไม่ใช่หน่วยตั้งฉากดูที่นี่ : สัดส่วนของความแปรปรวนที่อธิบายไว้ใน PCA และ LDA