คำตอบนี้ไม่ได้ให้ความช่วยเหลือด้านภาพสำหรับการทำความเข้าใจ CCA อย่างไรก็ตามการตีความทางเรขาคณิตที่ดีของ CCA จะถูกนำเสนอในบทที่ 12 ของ Anderson-1958 [1] ส่วนสำคัญของมันเป็นดังนี้:
พิจารณาจุดข้อมูลทุกมิติพีให้เป็นเมทริกซ์ที่มีx_iวิธีหนึ่งในการดูข้อมูลคือการตีความเป็นคอลเลกชันของจุดข้อมูลในสเปซมิติ * ในกรณีนั้นถ้าเราแยกจุดข้อมูลแรกจากข้อมูลที่เหลือCCA จะพยายามหาการรวมกันเชิงเส้นของเวกเตอร์ที่ขนานกัน (ขนานที่สุดเท่าที่จะทำได้) กับเส้น การรวมกันของที่เหลืออยู่Nx1,x2,...,xNpXp×NxiXp(N−1)∗p1p2x1,...,xp1p2เวกเตอร์x_pxp1+1,...,xp
ฉันพบว่ามุมมองนี้น่าสนใจด้วยเหตุผลเหล่านี้:
- มันให้การตีความทางเรขาคณิตที่น่าสนใจเกี่ยวกับรายการของตัวแปรที่ยอมรับ CCA
- ค่าสัมประสิทธิ์สหสัมพันธ์เชื่อมโยงกับมุมระหว่างการประมาณค่า CCA สองค่า
- อัตราส่วนของและสามารถเกี่ยวข้องโดยตรงกับความสามารถของ CCA ในการค้นหาจุดข้อมูลที่มีความสัมพันธ์สูงสุด ดังนั้นความสัมพันธ์ระหว่าง overfitting และโซลูชั่น CCA จึงเป็นที่ชัดเจน Hint: จุดข้อมูลสามารถขยายพื้นที่ - มิติเมื่อมีขนาดเล็กเกินไป (กรณีตัวอย่างไม่ดี)p1Np2N→(N−1)N
ที่นี่ฉันได้เพิ่มตัวอย่างด้วยรหัสบางส่วนที่คุณสามารถเปลี่ยนและและดูว่าเมื่อใดที่สูงเกินไปการคาดการณ์ CCA จะอยู่ด้านบนของกันและกันp1p2
* โปรดทราบว่าย่อยพื้นที่มิติและไม่มิติเพราะข้อ จำกัด อยู่ตรงกลาง (เช่น )(N−1)Nmean(xi)=0
[1] Anderson, TW ความรู้เบื้องต้นเกี่ยวกับการวิเคราะห์ทางสถิติหลายตัวแปร ฉบับ 2. นิวยอร์ก: ไวลีย์, 1958