ปัจจัย


12

ในการวิเคราะห์องค์ประกอบหลักองค์ประกอบหลักแรกคือทิศทางk orthogonal ที่มีความแปรปรวนสูงสุด กล่าวอีกนัยหนึ่งองค์ประกอบหลักตัวแรกถูกเลือกให้เป็นทิศทางของความแปรปรวนสูงสุดองค์ประกอบหลักที่สองถูกเลือกให้เป็นทิศทางมุมฉากไปยังทิศทางแรกกับความแปรปรวนสูงสุดและอื่น ๆkk

มีการตีความที่คล้ายกันสำหรับการวิเคราะห์ปัจจัยหรือไม่ ตัวอย่างเช่นฉันคิดว่าปัจจัยแรกคือปัจจัยที่อธิบายองค์ประกอบนอกแนวทแยงของเมทริกซ์สหสัมพันธ์เดิมได้ดีที่สุด(ในแง่ของการพูดข้อผิดพลาดกำลังสองระหว่างเมทริกซ์สหสัมพันธ์เดิมและเมทริกซ์สหสัมพันธ์ที่กำหนดโดย ปัจจัย). นี่เป็นเรื่องจริง (หรือมีบางอย่างที่คล้ายกันที่เราสามารถพูดได้)?k


แม้ว่าฉันจะเห็นด้วยกับเกือบทุกอย่างที่ @RR เขียนไว้ในคำตอบของพวกเขา (+1) คำตอบสั้น ๆ สำหรับคำถามสุดท้ายของคุณคือใช่มันเป็นความจริงทุกประการ โปรดทราบว่าในปัจจัย FA ยังสามารถเลือกให้เป็นมุมฉากเช่นเดียวกับใน PCA ความแตกต่างนั้นมีเฉพาะในการทำซ้ำเมทริกซ์ความสัมพันธ์ทั้งหมด (PCA) กับการทำซ้ำส่วนนอกของเส้นทแยงมุม (FA) เท่านั้น สำหรับการสนทนาที่ยาวนานขึ้นให้ดูคำตอบของฉันในเงื่อนไขสำหรับความคล้ายคลึงกันของ PCA และการวิเคราะห์ปัจจัยและมีเหตุผลที่ดีที่จะใช้ PCA แทน EFA หรือไม่?
อะมีบาพูดว่า Reinstate Monica

ฉันไม่แน่ใจว่าเอฟเอจริงหรือไม่ "ลด (รวม - ของ -) โควาเรียสบางส่วน" ลดลงเพราะมีการหมุน / การสกัด - เกณฑ์ที่เรียกว่า "MinRes" ซึ่งเป็นเหตุผลนี้ ถ้าอย่างนั้นทำไมถึงตั้งชื่อให้โดดเด่น บางทีขั้นตอนมาตรฐานสำหรับการค้นหาโซลูชัน FA ทางคณิตศาสตร์ได้ผลลัพธ์ที่เหมือนกันถ้าจำนวนของปัจจัย k ทำซ้ำโควาเรียสได้อย่างสมบูรณ์แบบ - แต่เนื่องจาก k เป็นค่าประมาณอาจเป็นได้ว่าในกรณีของความไม่สมบูรณ์ / ประเมินค่าต่ำเกินไป เหมือนกับ MinRes-solution ฉันว่า: อาจจะ - ฉันต้องการดูคำสั่งที่ชัดเจน
หมวกกันน็อกกอตฟริด

คำตอบ:


7

PCA เป็นเทคนิคการลดข้อมูลเป็นหลักโดยมีวัตถุประสงค์เพื่อให้ได้การฉายข้อมูลลงในพื้นที่มิติที่ต่ำกว่า วัตถุประสงค์ที่เทียบเท่ากันสองประการคือเพื่อเพิ่มความแปรปรวนซ้ำซ้อนหรือเพื่อลดข้อผิดพลาดในการสร้างใหม่ นี้จะทำงานจริงออกมาในรายละเอียดบางอย่างในคำตอบนี้คำถามก่อนหน้านี้

pX

X=AS+ϵ
SqAp×kk<pϵA
Σ=AAT+D
AARk×kRAΣ - ตามความเป็นไปได้สูงสุดในแบบจำลองเกาส์เซียน

kAD=σ2IAq

kkk


1
ใช่ฉันเข้าใจว่าไม่มีตัวเลือกเฉพาะของปัจจัย k (เนื่องจากเราสามารถหมุนและรับโมเดลเดียวกันได้) แต่ตัวเลือกใด ๆ ของปัจจัย k ที่เลือกโดยการวิเคราะห์ปัจจัยทำ "การอธิบายความสัมพันธ์สูงสุด" หรือไม่?
raegtin

1
@raegtin ฉันได้แก้ไขคำตอบเพื่ออธิบายมุมมองของฉันว่านี่คือรูปแบบของเมทริกซ์ความแปรปรวนร่วม ตัวเลือกของปัจจัยใด ๆ ที่ได้จากการหมุนคืออย่างที่ฉันเห็นมันเท่า ๆ กันดีหรือไม่ดีในการอธิบายความแปรปรวนร่วมของข้อมูลในขณะที่พวกเขาสร้างเมทริกซ์ความแปรปรวนร่วมเดียวกัน
NRH

1
ขอบคุณสำหรับการอัปเดตนี่เป็นคำอธิบายที่ยอดเยี่ยมสำหรับ FA! ดังนั้นเมื่อคุณพูดว่า "วัตถุประสงค์ของแบบจำลองคือการอธิบายความแปรปรวนร่วมที่ดีที่สุด" คุณหมายถึงปัจจัย k จริง ๆ แล้วเพิ่มจำนวนความแปรปรวนร่วมที่อธิบายได้จริงหรือไม่
raegtin

1
@egegin ใช่ฉันดูแบบจำลองเป็นเมทริกซ์ความแปรปรวนร่วมและเมื่อคุณประมาณแบบจำลองมันยุติธรรมที่จะบอกว่าคุณกำลังเพิ่มปริมาณความแปรปรวนร่วมสูงสุด
NRH

@raegtin และ NRH (+1 btw): เพื่อชี้แจง ความคิดเห็นทั้งสองข้างต้นนั้นถูกต้องถ้าหาก "ความแปรปรวนร่วม" เราเข้าใจ "ส่วนเบี่ยงเบนของเมทริกซ์ความแปรปรวนร่วม"
อะมีบาพูดว่า Reinstate Monica

3

@RAEGTIN ฉันเชื่อว่าคุณคิดถูก หลังจากการแยกและการหมุนก่อนหน้านั้นปัจจัยต่อเนื่องแต่ละตัวมีสัดส่วนความแปรปรวนร่วมน้อยลงเช่นเดียวกับองค์ประกอบที่ต่อเนื่องกันที่มีการแปรผันน้อยลง: ทั้งสองกรณีคอลัมน์ของเมทริกซ์การโหลดAไปตามลำดับการตกของ ผลรวมขององค์ประกอบกำลังสอง (การโหลด) ในองค์ประกอบเหล่านั้น การโหลดคือปัจจัยสหสัมพันธ์ bw และตัวแปร; ดังนั้นอาจกล่าวได้ว่าปัจจัยที่ 1 อธิบายส่วนที่ยิ่งใหญ่ที่สุดของ "รวม" กำลังสองในR matrix, ปัจจัยที่สองคือที่นี่ที่สอง ฯลฯ ความแตกต่างระหว่าง FA และ PCA แม้ว่าในการทำนายความสัมพันธ์โดยการโหลดมีดังนี้: FA คือ "สอบเทียบ" เพื่อกู้คืนRค่อนข้างละเอียดด้วยปัจจัยที่แยกเพียง m (ปัจจัย m <ตัวแปร p) ในขณะที่ PCA หยาบคายในการกู้คืนโดยคอมโพเนนต์ m - มันต้องการส่วนประกอบ p ทั้งหมดเพื่อกู้คืนRโดยไม่มีข้อผิดพลาด

ป.ล. เพียงเพื่อเพิ่ม ใน FA ค่าการโหลด "ประกอบด้วย" ของชุมชนที่สะอาด (ส่วนหนึ่งของความแปรปรวนที่รับผิดชอบในการเชื่อมโยง) ขณะที่ใน PCA การโหลดเป็นส่วนผสมของชุมชนและความไม่แน่นอนของตัวแปรดังนั้นจึงคว้าความแปรปรวนได้

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.