อะไรคือคำอธิบายที่เข้าใจง่ายว่า PCA เปลี่ยนจากปัญหาเชิงเรขาคณิต (ด้วยระยะทาง) เป็นปัญหาพีชคณิตเชิงเส้น (กับ eigenvectors) อย่างไร


54

ฉันได้อ่านมากเกี่ยวกับ PCA รวมทั้งบทเรียนต่างๆและคำถาม (เช่นนี้ , คนนี้ , คนนี้และคนนี้ )

ปัญหาทางเรขาคณิตที่ PCA พยายามปรับให้เหมาะสมนั้นชัดเจนสำหรับฉัน: PCA พยายามค้นหาส่วนประกอบหลักแรกด้วยการลดข้อผิดพลาดการสร้างใหม่ (การฉายภาพ) ซึ่งลดความแปรปรวนของข้อมูลที่คาดการณ์ไว้พร้อมกัน

ป้อนคำอธิบายรูปภาพที่นี่

เมื่อฉันอ่านครั้งแรกฉันก็นึกถึงบางสิ่งอย่างเช่นการถดถอยเชิงเส้น บางทีคุณสามารถแก้มันโดยใช้การไล่ระดับสีถ้าจำเป็น

อย่างไรก็ตามแล้วใจของฉันก็ปลิวไปเมื่อฉันอ่านว่าปัญหาการหาค่าเหมาะที่สุดนั้นได้รับการแก้ไขโดยใช้พีชคณิตเชิงเส้นและหาค่าลักษณะเฉพาะและค่าลักษณะเฉพาะ ฉันไม่เข้าใจว่าการใช้พีชคณิตเชิงเส้นนี้เข้ามาในการเล่นได้อย่างไร

ดังนั้นคำถามของฉันคือ PCA สามารถเปลี่ยนจากปัญหาการหาค่าเหมาะที่สุดเชิงเรขาคณิตเป็นปัญหาพีชคณิตเชิงเส้นได้อย่างไร ใครสามารถให้คำอธิบายง่ายๆ

ฉันไม่ได้มองหาคำตอบเช่นนี้ที่กล่าวว่า "เมื่อคุณแก้ปัญหาทางคณิตศาสตร์ของ PCA มันจะเทียบเท่ากับการหาค่าลักษณะเฉพาะและ eigenvectors ของเมทริกซ์ความแปรปรวนร่วม" โปรดอธิบายว่าเหตุใด eigenvector จึงกลายเป็นองค์ประกอบหลักและทำไมค่าลักษณะเฉพาะออกมาเป็นความแปรปรวนของข้อมูลที่ฉายลงบนพวกเขา

ฉันเป็นวิศวกรซอฟต์แวร์ไม่ใช่นักคณิตศาสตร์เลย

หมายเหตุ: รูปด้านบนนี้ถูกถ่ายและแก้ไขจากบทช่วยสอน PCAนี้


2
ในหัวข้อยาวหลังลิงค์แรกของคุณมีคำตอบของ @ amoeba เกี่ยวกับแอนิเมชันซึ่งอธิบายสิ่งสำคัญ PCA คือrotaionของแกนข้อมูล (คอลัมน์) จนกว่าพวกเขาจะกลายเป็น uncorrelated เป็นเวกเตอร์ข้อมูล (ตัวแปร) เมทริกซ์การหมุนดังกล่าวพบได้ผ่าน eigendecomposition หรือการสลายตัวของค่าเอกพจน์และเรียกว่าเมทริกซ์ eigenvector
ttnphns

2
นอกจากนี้แม้ว่าคุณจะไม่ใช่นักคณิตศาสตร์ (ฉันก็ไม่ได้) คุณอาจเคยได้ยินเกี่ยวกับพีชคณิตเชิงเส้นนั้นและเรขาคณิตแบบยุคลิดที่มีความเกี่ยวข้องอย่างใกล้ชิดกับสาขาของคณิตศาสตร์; พวกเขายังศึกษาด้วยกันเป็นวินัยที่เรียกว่าเรขาคณิตวิเคราะห์
ttnphns

1
optimization problemฉันเชื่อว่าปัญหา PCA สามารถแก้ไขได้ด้วยวิธีการเพิ่มประสิทธิภาพ (ซ้ำ ๆ , มาบรรจบกัน) ฉันเชื่อว่า แต่เนื่องจากมันมีวิธีแก้ปัญหาแบบปิดผ่านคณิตศาสตร์ทำไมไม่ใช้วิธีแก้ปัญหาที่ง่ายกว่าและมีประสิทธิภาพ?
ttnphns

provide an intuitive explanationคุณขอ ฉันสงสัยว่าทำไมคำตอบที่เข้าใจง่ายและชัดเจนโดยอะมีบาที่ฉันเชื่อมโยงถึงจะไม่เหมาะกับคุณ คุณถาม_why_ eigenvectors come out to be the principal components...ทำไม ตามคำนิยาม! Eigenvectors เป็นทิศทางหลักของ data cloud
ttnphns

6
@ttnphns: จริง ๆ แล้วฉันคิดว่าคำถามมีเหตุผล นี่คือวิธีที่ฉันเข้าใจ PCA ต้องการค้นหาทิศทางของความแปรปรวนสูงสุดของเส้นโครง ทิศทางนี้เรียกว่า (ตามคำนิยาม) ทิศทางหลักแรก ในทางตรงกันข้ามการวิคเตอร์ของความแปรปรวนเมทริกซ์คือ (ตามคำนิยาม) เวกเตอร์เช่นที่W เหตุใดจึงเป็นทิศทางหลักแรกที่กำหนดโดยค่าไอเกนวีคกับค่าลักษณะเฉพาะที่ใหญ่ที่สุด? ปรีชาที่นี่คืออะไร? มันไม่ได้นิยามอย่างแน่นอน ฉันเคยคิดเกี่ยวกับมันและฉันรู้วิธีที่จะพิสูจน์มัน แต่มันยากที่จะอธิบายอย่างสังหรณ์ใจ CwCw=λw
อะมีบาพูดว่า Reinstate Monica

คำตอบ:


54

คำชี้แจงปัญหา

ปัญหาทางเรขาคณิตที่ PCA พยายามปรับให้เหมาะสมนั้นชัดเจนสำหรับฉัน: PCA พยายามค้นหาส่วนประกอบหลักแรกด้วยการลดข้อผิดพลาดการสร้างใหม่ (การฉายภาพ) ซึ่งลดความแปรปรวนของข้อมูลที่คาดการณ์ไว้พร้อมกัน

ถูกตัอง. ฉันอธิบายความเชื่อมโยงระหว่างสูตรทั้งสองนี้ในคำตอบของฉันที่นี่ (ไม่มีคณิตศาสตร์) หรือที่นี่ (พร้อมคณิตศาสตร์)

ลองดูสูตรที่สอง: PCA พยายามหาทิศทางเช่นนั้นการคาดการณ์ข้อมูลที่มีความแปรปรวนที่เป็นไปได้สูงสุด ทิศทางนี้โดยนิยามเรียกว่าทิศทางหลักแรก เราสามารถทำเป็นระเบียบได้ดังต่อไปนี้: เนื่องจากเมทริกซ์ความแปรปรวนร่วมเรากำลังมองหาเวกเตอร์มีความยาวหน่วยเช่นนั้นสูงสุดCww=1wCw

(ในกรณีที่ไม่ชัดเจน: ถ้าเป็นเมทริกซ์ข้อมูลกึ่งกลางการประมาณการจะได้รับโดยและความแปรปรวนคือ .)XXw1n1(Xw)Xw=w(1n1XX)w=wCw

ในทางตรงกันข้ามการวิคเตอร์ของคือโดยความหมายใด ๆ เวกเตอร์ดังกล่าวว่าวีCvCv=λv

ปรากฎว่าทิศทางหลักแรกได้รับจาก eigenvector ที่มีค่าลักษณะเฉพาะที่ใหญ่ที่สุด นี่เป็นคำแถลงที่แปลกประหลาดและแปลกประหลาด


พิสูจน์

หากมีใครเปิดหนังสือหรือบทช่วยสอนใด ๆ บน PCA คุณสามารถพบหลักฐานต่อไปนี้เกือบหนึ่งบรรทัดของคำสั่งด้านบน เราต้องการเพิ่มภายใต้ข้อ จำกัด ที่ ; สิ่งนี้สามารถทำได้โดยการเพิ่มตัวคูณและเพิ่มลากรองจ์ ; เราได้รับซึ่งเป็นสมการไอเก็นนิคเตอร์ เราเห็นว่ามีค่าลักษณะเฉพาะที่ใหญ่ที่สุดในความเป็นจริงโดยการแทนที่วิธีนี้เป็นฟังก์ชันวัตถุประสงค์ซึ่งให้wCww=ww=1wCwλ(ww1)Cwλw=0λwCwλ(ww1)=wCw=λww=λ\ จากความจริงที่ว่าวัตถุประสงค์ของฟังก์ชั่นนี้ควรได้รับการขยายให้มากที่สุดจะต้องมีค่าลักษณะเฉพาะมากที่สุด, QEDλ

สิ่งนี้มีแนวโน้มที่จะไม่ง่ายสำหรับคนส่วนใหญ่

หลักฐานที่ดีกว่า (ดูตัวอย่างเช่นคำตอบที่ประณีตนี้โดย @ cardinal ) กล่าวว่าเนื่องจากเป็นเมทริกซ์สมมาตรจึงเป็นแนวทแยงในลักษณะพื้นฐานของไอจีนิค (นี่เรียกว่าทฤษฎีบทเกี่ยวกับสเปกตรัม ) ดังนั้นเราจึงสามารถเลือกพื้นฐานมุมฉากได้คือหนึ่งที่กำหนดโดย eigenvectors โดยที่เป็นแนวทแยงมุมและมีค่าลักษณะเฉพาะบนเส้นทแยงมุม โดยพื้นฐานแล้วจะลดความซับซ้อนของหรือกล่าวอีกนัยหนึ่งคือความแปรปรวนจะถูกกำหนดโดยผลรวมถ่วงน้ำหนักของค่าลักษณะเฉพาะ เกือบจะทันทีที่การเพิ่มนิพจน์นี้ให้มากที่สุดควรใช้CCλiwCwλiwi2w=(1,0,0,,0)คือ eigenvector แรกที่ยอมแปรปรวน (จริง ๆ แล้วเบี่ยงเบนไปจากคำตอบนี้และ "การค้า" ส่วนที่ใหญ่ที่สุดของค่าลักษณะเฉพาะสำหรับชิ้นเล็ก ๆ จะนำไปสู่ความแปรปรวนโดยรวมเล็ก) โปรดทราบว่าค่าของไม่ได้ขึ้นอยู่กับพื้นฐาน! การเปลี่ยนเป็นค่าพื้นฐานของไอเจนิคเตอร์ทำให้เกิดการหมุนดังนั้นในแบบ 2D สามารถจินตนาการได้เพียงแค่หมุนแผ่นกระดาษด้วยสแกตเตอร์กระจาย เห็นได้ชัดว่าสิ่งนี้ไม่สามารถเปลี่ยนแปลงผลต่างใด ๆλ1wCw

ฉันคิดว่านี่เป็นข้อโต้แย้งที่ใช้งานง่ายและมีประโยชน์มาก แต่ขึ้นอยู่กับทฤษฎีบทสเปกตรัม ผมคิดว่าประเด็นที่แท้จริงที่นี่คือ: อะไรคือสัญชาตญาณเบื้องหลังทฤษฎีบทสเปกตรัม


ทฤษฎีบทสเปกตรัม

ใช้เมทริกซ์สมมาตรC ใช้ของวิคเตอร์มีขนาดใหญ่ที่สุด eigenvalue \ทำให้ไอจีนิกเตอร์ตัวนี้เป็นเวกเตอร์พื้นฐานอันดับแรกและเลือกเวกเตอร์พื้นฐานอื่น ๆ แบบสุ่ม (เช่นที่พวกมันทั้งหมดเป็นแบบออโธเทนนิมอล) วิธีการจะมองในพื้นฐานนี้?Cw1λ1C

มันจะมีที่มุมบนซ้ายเนื่องจากในพื้นฐานนี้และ จะเท่ากับมี0)λ1w1=(1,0,00)Cw1=(C11,C21,Cp1)λ1w1=(λ1,0,00)

โดยอาร์กิวเมนต์เดียวกันก็จะมีศูนย์ในคอลัมน์แรกภายใต้\λ1

แต่เนื่องจากมันสมมาตรจะมีศูนย์ในแถวแรกหลังจากเช่นกัน ดังนั้นมันจะเป็นดังนี้:λ1

C=(λ10000),

เมื่อที่ว่างหมายความว่ามีบางส่วนขององค์ประกอบ เนื่องจากเมทริกซ์นั้นสมมาตรบล็อกนี้จึงมีความสมมาตรเช่นกัน ดังนั้นเราสามารถใช้อาร์กิวเมนต์เดียวกันกับมันได้อย่างมีประสิทธิภาพโดยใช้ eigenvector ที่สองเป็นเวกเตอร์พื้นฐานที่สองและรับและบนแนวทแยง สิ่งนี้สามารถดำเนินต่อไปจนกระทั่งเป็นแนวทแยง นั่นคือทฤษฎีบททางสเปกตรัม (โปรดสังเกตว่ามันใช้งานได้เพียงเพราะสมมาตร)λ1λ2CC


นี่คือการปฏิรูปที่เป็นนามธรรมของอาร์กิวเมนต์เดียวกันทั้งหมด

เรารู้ว่าดังนั้น eigenvector ตัวแรกจะกำหนดพื้นที่ย่อย 1 มิติที่ทำหน้าที่เป็นตัวคูณสเกลาร์ ให้เราตอนนี้ใช้ใด ๆ เวกเตอร์ฉากกับw_1 แล้วก็เกือบจะทันทีที่ยังเป็นฉากกับw_1 อันที่จริง:Cw1=λ1w1Cvw1Cvw1

w1Cv=(w1Cv)=vCw1=vCw1=λ1vw1=λ10=0.

ซึ่งหมายความว่าทำหน้าที่ในสเปซที่เหลือทั้งฉากกับดังกล่าวว่ามันอยู่ที่แยกต่างหากจากw_1 นี่คือคุณสมบัติที่สำคัญของเมทริกซ์สมมาตร ดังนั้นเราจึงสามารถหาไอเก็คเวกเตอร์ที่ใหญ่ที่สุดที่นั่นและดำเนินการในลักษณะเดียวกันในที่สุดก็สร้างโครงสร้างพื้นฐานแบบดั้งเดิมของไอเก็นเวกเตอร์Cw1w1w2


"ตัวคูณลากรองจ์" ชัดเจนสำหรับฉันจริงๆ อย่างไรก็ตามคุณสามารถบอกฉันได้ว่าทำไมเราถึงต้องมีข้อจำกัดความยาวของหน่วย? ขอบคุณ
Haitao Du

2
@ hxd1011 มีว่าคำถามนี้ที่นี่แล้ว แต่ในเวลาสั้น ๆ : นั่นเป็นเพราะมิฉะนั้นคุณสามารถคูณจากจำนวนใด ๆ และจะเพิ่มขึ้นโดยที่สองของจำนวนนี้ ดังนั้นปัญหาจะกลายเป็นไม่ชัดเจน: สูงสุดของการแสดงออกนี้ไม่มีที่สิ้นสุด อันที่จริงความแปรปรวนของการฉายภาพในทิศทางของคือเฉพาะเมื่อคือความยาวหน่วย wwCwwwCww
อะมีบาพูดว่า Reinstate Monica

ฉันเดาว่าอาจคุ้นเคยกับผู้อ่านส่วนใหญ่เล็กน้อย ฉันแทนที่มันที่นี่ ขอบคุณ n1
อะมีบาพูดว่า Reinstate Monica

@amoeba: ขอบคุณสำหรับคำตอบ ฉันสับสนด้วยสัญกรณ์ของคุณ คุณใช้wเพื่อระบุเวกเตอร์ที่มีความยาวหน่วยซึ่งกลายเป็น eigenvector แรก (องค์ประกอบหลัก) เมื่อฉันเรียกใช้ PCA ใน R (เช่นprcomp(iris[,1:4], center=T, scale=T)) ฉันเห็นหน่วยไอเก็นที่มีความยาวหน่วยโดยมีรูปแบบคล้าย(0.521, -0.269, 0.580, 0.564)ๆ อย่างไรก็ตามในคำตอบของคุณภายใต้หัวข้อ "หลักฐาน" ที่คุณเขียนมันเกือบจะทันทีที่เพื่อเพิ่มนิพจน์นี้หนึ่งก็ควรใช้ W = (1,0,0, ... , 0) คือวิคเตอร์แรก เหตุใด eigenvector ในหลักฐานของคุณจึงมีรูปร่างที่ดี
stackoverflowuser2010

1
สวัสดี @ user58865 ขอบคุณสำหรับเขยิบ: ฉันลืมที่จะตอบครั้งแรก บางคือเป็นสเกลาร์ - มันเป็นแค่ตัวเลข ตัวเลขใด ๆ คือ "สมมาตร" :) และเท่ากับทรานส มันสมเหตุสมผลหรือไม่ w1Cv
อะมีบาพูดว่า Reinstate Monica

5

มีผลลัพธ์จากปี 1936 โดย Eckart และ Young ( https://ccrma.stanford.edu/~dattorro/eckart%26young.1936.pdf ) ซึ่งระบุสิ่งต่อไปนี้

1rdkukvkT=argminX^ϵM(r)||XX^||F2

เมื่อ M (r) เป็นเซตของเมทริกซ์อันดับ r ซึ่งโดยทั่วไปหมายถึงส่วนประกอบ r แรกของ SVD ของ X ให้เมทริกซ์อันดับต่ำที่ดีที่สุดโดยประมาณของ X และดีที่สุดถูกกำหนดในแง่ของกำลังสอง Frobenius norm - ผลรวมของกำลังสอง องค์ประกอบของเมทริกซ์

นี่เป็นผลลัพธ์ทั่วไปสำหรับเมทริกซ์และตั้งแต่แรกเห็นไม่เกี่ยวข้องกับชุดข้อมูลหรือการลดขนาด

อย่างไรก็ตามหากคุณไม่คิดว่าเป็นเมทริกซ์ แต่ให้นึกถึงคอลัมน์ของเมทริกซ์เป็นพาหะของเวกเตอร์ของจุดข้อมูลดังนั้นคือการประมาณด้วยข้อผิดพลาดการแสดงขั้นต่ำในแง่ของความแตกต่างข้อผิดพลาดกำลังสองXXX^


4

นี่คือสิ่งที่ฉันใช้กับพีชคณิตเชิงเส้นด้านหลัง PCA ในพีชคณิตเชิงเส้นหนึ่งในทฤษฎีที่สำคัญคือ{ผีทฤษฎีบท} มันระบุว่า S เป็นสมการ n ใด ๆ โดยเมทริกซ์ n กับสัมประสิทธิ์จริงแล้ว S มี n eigenvector กับค่าลักษณะเฉพาะทั้งหมดเป็นของจริง นั่นหมายความว่าเราสามารถเขียนกับ D เมทริกซ์แนวทแยงที่มีผลบวก นั่นคือและมีอันตรายในการสมมติว่าไม่มี\ A คือการเปลี่ยนแปลงของเมทริกซ์พื้นฐาน นั่นคือถ้าพื้นฐานดั้งเดิมของเราคือดังนั้นด้วยพื้นฐานของSpectral TheoremS=ADA1D=diag(λ1,λ2,,λn)λ1λ2λnx1,x2,,xnA(x1),A(x2),A(xn)การกระทำของ S เป็นแนวทแยง นี่ก็หมายความว่าถือได้ว่าเป็นพื้นฐานมุมฉากด้วย ถ้าเมทริกซ์ความแปรปรวนร่วมของเรามีไว้สำหรับการสังเกต n ตัวแปร n ตัวเราจะต้องทำ พื้นฐานที่จัดทำโดยเป็นพื้นฐานของ PCA สิ่งนี้ตามมาจากข้อเท็จจริงพีชคณิตเชิงเส้น ในสาระสำคัญมันเป็นความจริงเพราะพื้นฐาน PCA เป็นพื้นฐานของ eigenvectors และมี eigenvector ที่สุด n ของตารางเมทริกซ์ขนาด n แน่นอนว่าเมทริกซ์ข้อมูลส่วนใหญ่ไม่ได้เป็นแบบสแควร์ ถ้า X เป็นเมทริกซ์ข้อมูลที่มีการสังเกต n ของตัวแปร p ดังนั้น X คือขนาด n คูณ p ฉันจะสมมติว่า (การสังเกตมากกว่าตัวแปร) และA(xi)||A(xi)||=λiA(xi)
n>prk(X)=p(ตัวแปรทั้งหมดเป็นอิสระแบบเส้นตรง) ไม่จำเป็นต้องใช้สมมติฐาน แต่จะช่วยได้ด้วยสัญชาตญาณ พีชคณิตเชิงเส้นมีลักษณะทั่วไปจากทฤษฎีบทสเปกตรัมที่เรียกว่าการสลายตัวของค่าเอกฐาน สำหรับ X มันระบุว่ากับ U, V orthonormal (สี่เหลี่ยม) เมทริกซ์ขนาด n และ p และเมทริกซ์ทแยงมุมจริงที่ไม่ใช่ลบเท่านั้น รายการในแนวทแยง เราอาจจัดเรียงพื้นฐานของ V อีกครั้งเพื่อให้ในแง่เมทริกซ์นี่หมายความว่าถ้าและถ้าn X=UΣVtΣ=(sij)s11s22spp>0X(vi)=siiuiipsii=0i>nviให้ PCA สลายตัว แม่นยำยิ่งขึ้นคือการสลาย PCA พีชคณิตเชิงเส้นกล่าวอีกว่ามีเพียง eigenvector p เท่านั้น SVD ให้ตัวแปรใหม่ (ที่กำหนดโดยคอลัมน์ของ V) ที่เป็นฉากตั้งฉากและมีบรรทัดฐานลดลง ΣVt


4

"ซึ่งเพิ่มความแปรปรวนของข้อมูลที่คาดการณ์ไว้ได้พร้อมกัน" คุณเคยได้ยินความฉลาดทาง Rayleighบ้างไหม? อาจเป็นวิธีหนึ่งที่เห็นสิ่งนี้ ความฉลาดทางเรย์ลีย์ของเมทริกซ์ความแปรปรวนร่วมจะให้ผลต่างของข้อมูลที่คาดการณ์ไว้ (และหน้า wiki อธิบายว่าเหตุใด eigenvector จึงเพิ่มความฉลาดทางเรย์ลีห์)


1

@amoeba ให้รูปแบบเรียบร้อยและมีหลักฐาน:

เราสามารถทำเป็นระเบียบได้ดังนี้: เนื่องจากเมทริกซ์ความแปรปรวนร่วม C, เรากำลังมองหาเวกเตอร์ w ที่มีความยาวหน่วย, ‖w‖ = 1, เช่นนั้น W T Cw สูงสุด

แต่ฉันคิดว่ามันมีข้อพิสูจน์หนึ่งอย่างง่าย ๆ เกี่ยวกับ

ปรากฎว่าทิศทางหลักแรกได้รับจาก eigenvector ที่มีค่าลักษณะเฉพาะที่ใหญ่ที่สุด นี่เป็นคำแถลงที่แปลกประหลาดและแปลกประหลาด

เราสามารถตีความ w T Cw เป็นผลคูณดอทระหว่างเวกเตอร์ w และ Cw ซึ่งได้มาจากการผ่านการแปลง C:

w T Cw = ‖w‖ * ‖Cw‖ * cos (w, Cw)

เนื่องจาก w มีความยาวตรึงเพื่อเพิ่ม w T Cw ให้มากที่สุดเราต้องการ:

  1. เพิ่ม‖Cw‖
  2. ขยาย cos (w, Cw)

ปรากฎว่าถ้าเรากลายเป็น eigenvector ของ C ด้วยค่าลักษณะเฉพาะที่ใหญ่ที่สุดเราสามารถเก็บถาวรทั้งสองพร้อมกัน:

  1. ‖Cw‖สูงสุด (ถ้า w เบี่ยงเบนจาก eigenvector นี้สลายไปตาม eigenvector orthogonal คุณควรเห็น‖Cw‖ลดลง)
  2. w และ Cw ในทิศทางเดียวกัน cos (w, Cw) = 1, สูงสุด

เนื่องจาก eigenvectors เป็น orthogonal ร่วมกับ eigenvector อื่น ๆ ของ C พวกเขากลายเป็นชุดขององค์ประกอบหลักในการ X


หลักฐาน 1

แยกย่อย w ลงใน orthogonal หลักและรอง eigenvector v1และv2สมมติว่าความยาวของมันคือ v1 และ v2 ตามลำดับ เราต้องการพิสูจน์

1 w) 2 > ((λ 1 v1) 2 + (λ 2 v2) 2 )

ตั้งแต่λ 1 > λ 2เรามี

((λ 1 v1) 2 + (λ 2 v2) 2 )

<((λ 1 v1) 2 + (λ 1 v2) 2 )

= (λ 1 ) 2 * (v1 2 + v2 2 )

= (λ 1 ) 2 * w 2

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.