การถดถอยมุมน้อยทำให้ค่าสหสัมพันธ์ลดลงและโยงกัน?


9

ฉันพยายามที่จะแก้ปัญหาอย่างน้อยการถดถอยมุม (LAR) นี่เป็นปัญหา3.23ในหน้า97ของHastie et al., องค์ประกอบของการเรียนรู้ทางสถิติ, อันดับที่ 2 เอ็ด (พิมพ์ครั้งที่ 5)

พิจารณาปัญหาการถดถอยกับตัวแปรทั้งหมดและการตอบสนองที่มีค่าเฉลี่ยเป็นศูนย์และส่วนเบี่ยงเบนมาตรฐานหนึ่ง สมมติว่าตัวแปรแต่ละตัวมีความสัมพันธ์แบบสัมบูรณ์เหมือนกันกับการตอบสนอง:

1N|xj,y|=λ,j=1,...,p

ปล่อยเป็นสัมประสิทธิ์กำลังสองน้อยที่สุดของใน\ mathbf {X}และปล่อยให้\ mathbf {u} (\ alpha) = \ alpha \ bf {X} \ hat {\ beta}สำหรับ\ alpha \ in [0,1]β^yXu(α)=αXβ^α[0,1]

ฉันถูกขอให้แสดง

1N|xj,yu(α)|=(1α)λ,j=1,...,p
และฉันมีปัญหากับสิ่งนั้น หมายเหตุว่านี้สามารถโดยทั่วไปกล่าวว่าความสัมพันธ์ของแต่ละxJกับที่เหลือยังคงอยู่ในขนาดที่เท่ากันในขณะที่เรามีต่อความคืบหน้ายูยู

ฉันยังไม่รู้วิธีแสดงให้เห็นว่าสหสัมพันธ์นั้นมีค่าเท่ากับ:

λ(α)=(1-α)(1-α)2+α(2-α)ยังไม่มีข้อความRSSλ

พอยน์เตอร์ใด ๆ ที่จะได้รับการชื่นชมอย่างมาก!


2
@ เบลมอนต์คุณคืออะไรยู(α) ? คุณช่วยอธิบายบริบทเพิ่มเติมเกี่ยวกับปัญหาของคุณได้ไหม? เชื่อมโยงไปยังบทความที่มีคุณสมบัติมาตรฐานของ LAR เช่นจะช่วยได้มาก
mpiktas

@ เบลมอนต์ดูเหมือนว่าปัญหาจาก Hastie และคณะองค์ประกอบการเรียนรู้ทางสถิติครั้งที่ 2 เอ็ด เป็นการบ้านหรือไม่? ถ้าเป็นเช่นนั้นคุณอาจเพิ่มแท็กนั้น
พระคาร์ดินัล

@Belmont ตอนนี้ @cardinal ให้คำตอบที่สมบูรณ์คุณสามารถระบุ LAR จริงๆสำหรับการอ้างอิงในอนาคตได้หรือไม่? ตัดสินจากคำตอบนี่คือการจัดการมาตรฐานของผลิตภัณฑ์อย่างน้อยกำลังสองถดถอยที่ได้รับข้อ จำกัด เริ่มต้นบางอย่าง ไม่ควรมีชื่อพิเศษโดยไม่มีเหตุผลร้ายแรง
mpiktas

1
@mpiktas เป็นอัลกอริทึม Stagewise ดังนั้นทุกครั้งที่ตัวแปรเข้าหรือออกจากแบบจำลองบนพา ธ การทำให้เป็นปกติขนาด (เช่น cardinality / Dimensions) ของจะเพิ่มขึ้นหรือลดลงตามลำดับและใช้การประมาณ LS ใหม่ ตัวแปร "ใช้งานอยู่" ในปัจจุบัน ในกรณีของเชือกซึ่งเป็นปัญหาการหาค่าเหมาะที่สุดของนูนกระบวนการนี้ใช้ประโยชน์จากโครงสร้างพิเศษในสภาพ KKT เพื่อให้ได้โซลูชั่นที่มีประสิทธิภาพมาก นอกจากนี้ยังมีข้อสรุปทั่วไปสำหรับเช่นการถดถอยโลจิสติกโดยใช้ IRLS และ Heine-Borel (เพื่อพิสูจน์การลู่เข้าในขั้นตอนที่ไม่ จำกัด จำนวนขั้นตอน)β
cardinal

1
@ เบลมอนต์ -1 เมื่อฉันเพิ่งซื้อหนังสือของ Hastie ฉันสามารถยืนยันได้ว่านี่เป็นการออกกำลังกายจากมัน ดังนั้นฉันจึงให้คุณเป็น -1 เพราะคุณไม่ได้จัดการเพื่อให้คำจำกัดความทั้งหมดฉันไม่ได้พูดถึงการอ้างอิง
mpiktas

คำตอบ:


21

นี่คือปัญหา3.23ในหน้า97ของHastie et al., องค์ประกอบของการเรียนรู้ทางสถิติ , อันดับที่ 2 เอ็ด (พิมพ์ครั้งที่ 5)

กุญแจสู่ปัญหานี้คือความเข้าใจที่ดีของสแควร์สน้อยสามัญ (เช่นการถดถอยเชิงเส้น) โดยเฉพาะอย่างยิ่ง orthogonality ของค่าติดตั้งและส่วนที่เหลือ

Orthogonality lemma : ให้เป็นเมทริกซ์การออกแบบ ,เป็นเวกเตอร์การตอบสนองและพารามิเตอร์ (จริง) สมมติว่าเต็มอันดับ (ซึ่งเราจะตลอด) ที่ OLS ประมาณการของเป็นY ค่าติดตั้งเป็นY แล้ว0 นั่นคือค่าติดตั้งจะเป็นมุมฉากกับส่วนที่เหลือ สิ่งนี้ตามมาตั้งแต่ .Xn×พีYβXββ^=(XTX)-1XTYY^=X(XTX)-1XTYY^,Y-Y^=Y^T(Y-Y^)=0XT(Y-Y^)=XTY-XTX(XTX)-1XTY=XTY-XTY=0

ตอนนี้ให้เป็นเวกเตอร์คอลัมน์ดังกล่าวว่าเป็นคอลัมน์ TH Xเงื่อนไขที่สมมติคือ:xJxJJX

  • 1ยังไม่มีข้อความxJ,xJ=1สำหรับแต่ละ , ,J1ยังไม่มีข้อความY,Y=1
  • 1ยังไม่มีข้อความxJ,1พี=1ยังไม่มีข้อความY,1พี=0โดยที่หมายถึงเวกเตอร์ของความยาวและ1พีพี
  • 1ยังไม่มีข้อความ|xJ,Y|=λสำหรับทุกJJ

โปรดทราบว่าโดยเฉพาะอย่างยิ่งคำสั่งสุดท้ายของบทแทรกฉากเป็นเหมือนสำหรับทุกJxJ,Y-Y^=0J


ความสัมพันธ์จะถูกผูก

ตอนนี้{y} ดังนั้น และภาคที่สองทางด้านขวามือเป็นศูนย์โดยorthogonality lemmaดังนั้น ตามที่ต้องการ ค่าสัมบูรณ์ของสหสัมพันธ์เป็นเพียงแค่ ยู(α)=αXβ^=αY^

xJ,Y-ยู(a)=xJ,(1-α)Y+αY-αY^=(1-α)xJ,Y+αxJ,Y-Y^,
1ยังไม่มีข้อความ|xJ,Y-ยู(α)|=(1-α)λ,
ρ^J(α)=1ยังไม่มีข้อความ|xJ,Y-ยู(α)|1ยังไม่มีข้อความxJ,xJ1ยังไม่มีข้อความY-ยู(α),Y-ยู(α)=(1-α)λ1ยังไม่มีข้อความY-ยู(α),Y-ยู(α)

หมายเหตุ : ทางด้านขวาด้านบนมีความเป็นอิสระจากและตัวเศษเหมือนกับความแปรปรวนร่วมเนื่องจากเราสันนิษฐานว่า 's และทั้งหมดอยู่กึ่งกลาง (โดยเฉพาะอย่างยิ่งไม่จำเป็นต้องลบค่าเฉลี่ย )JxJY

ประเด็นคืออะไร? เมื่อเพิ่มเวกเตอร์การตอบสนองได้รับการแก้ไขเพื่อให้นิ้วเข้าหาทางของการแก้ปัญหากำลังสองน้อยที่สุด( จำกัด ! ) ที่ได้จากการรวมเฉพาะพารามิเตอร์แรกในโมเดล พร้อมกันนี้จะปรับเปลี่ยนพารามิเตอร์ที่ประมาณไว้เนื่องจากเป็นผลิตภัณฑ์ภายในที่เรียบง่ายของตัวทำนายที่มีเวกเตอร์การตอบสนอง (แก้ไข) การปรับเปลี่ยนใช้รูปแบบพิเศษแม้ว่า มันทำให้ (ขนาดของ) ความสัมพันธ์ระหว่างตัวทำนายและการตอบสนองที่แก้ไขเหมือนกันตลอดกระบวนการ (แม้ว่าค่าของความสัมพันธ์กำลังเปลี่ยนแปลง) ลองคิดดูว่าสิ่งนี้ทำอะไรได้บ้างและคุณจะเข้าใจชื่อของขั้นตอน!αพี


รูปแบบที่ชัดเจนของสหสัมพันธ์ (สัมบูรณ์)

ให้ความสำคัญกับคำในตัวส่วนเนื่องจากตัวเศษอยู่ในรูปแบบที่ต้องการแล้ว เรามี

Y-ยู(α),Y-ยู(α)=(1-α)Y+αY-ยู(α),(1-α)Y+αY-ยู(α).

การแทนค่าในและใช้ linearity ของผลิตภัณฑ์ภายในเราจะได้ยู(α)=αY^

Y-ยู(α),Y-ยู(α)=(1-α)2Y,Y+2α(1-α)Y,Y-Y^+α2Y-Y^,Y-Y^.

สังเกตว่า

  • Y,Y=ยังไม่มีข้อความโดยการสันนิษฐาน
  • Y,Y-Y^=Y-Y^,Y-Y^+Y^,Y-Y^=Y-Y^,Y-Y^โดยใช้orthogonality lemma (อีกครั้ง) ในเทอมที่สองตรงกลาง; และ,
  • Y-Y^,Y-Y^=RSSตามคำจำกัดความ

เมื่อรวมทั้งหมดเข้าด้วยกันคุณจะสังเกตเห็นว่าเราได้รับ

ρ^J(α)=(1-α)λ(1-α)2+α(2-α)ยังไม่มีข้อความRSS=(1-α)λ(1-α)2(1-RSSยังไม่มีข้อความ)+1ยังไม่มีข้อความRSS

ในการสรุปสิ่งต่าง ๆดังนั้นมันชัดเจนว่ากำลังลดความในและเป็น11-RSSยังไม่มีข้อความ=1ยังไม่มีข้อความ(Y,Y,-Y-Y^,Y-Y^)0ρ^j(α)αρ^j(α)0α1


บทส่งท้าย : มุ่งเน้นที่แนวคิดที่นี่ มีเพียงคนเดียวจริงๆ แทรกตั้งฉากไม่เกือบทุกงานสำหรับเรา ส่วนที่เหลือเป็นเพียงพีชคณิตสัญกรณ์และความสามารถในการทำให้สองอันสุดท้ายนี้ทำงานได้


2
@cardinal, +1 คำตอบคือขนาดที่ดีกว่าคำถาม
mpiktas

@cardinal คุณอาจต้องการเปลี่ยนลิงก์เป็น amazon หรือเว็บไซต์อื่น ๆ ฉันคิดว่าการลิงก์ไปยังหนังสือเล่มเต็มอาจทำให้เกิดปัญหาลิขสิทธิ์
mpiktas

3
@mpiktas ไม่ ไม่มีปัญหาลิขสิทธิ์ นั่นคือเว็บไซต์อย่างเป็นทางการสำหรับหนังสือเล่มนี้ ผู้เขียนได้รับอนุญาตจาก Springer เพื่อให้สามารถใช้งาน PDF ได้อย่างอิสระออนไลน์ (ดูหมายเหตุถึงผลกระทบนี้ในเว็บไซต์) ฉันคิดว่าพวกเขาได้รับแนวคิดจาก Stephen Boyd และข้อความConvex Optimizationของเขา หวังว่าแนวโน้มดังกล่าวจะรับไอน้ำในอีกไม่กี่ปีข้างหน้า สนุก!
พระคาร์ดินัล

@ cardinal ขอบคุณมาก! นั่นคืออันยิ่งใหญ่ใจกว้างจากผู้เขียน
mpiktas

@mpiktas เป็นหนังสือที่ได้รับความนิยมมากที่สุดในซีรี่ส์ Springer ในสถิติ มันดูดีบน iPad ซึ่งทำให้ฉันนึกถึง --- ฉันควรดาวน์โหลดข้อความของ Boyd ลงไปด้วย ไชโย
พระคาร์ดินัล
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.