วิธีการเหล่านี้ - เครือข่ายเชือกและยางยืด - เกิดจากปัญหาของการเลือกคุณสมบัติและการทำนาย มันผ่านเลนส์ทั้งสองนี้ที่ฉันคิดว่าสามารถหาคำอธิบายได้
Matthew Gunn อธิบายอย่างชัดเจนในคำตอบของเขาว่าเป้าหมายทั้งสองนี้นั้นแตกต่างกันและมักถูกยึดครองโดยคนอื่น อย่างไรก็ตามโชคดีสำหรับเราวิธีการที่เราสนใจสามารถทำได้ดีในทั้งสองด้าน
การเลือกคุณสมบัติ
ก่อนอื่นเรามาพูดถึงการเลือกคุณสมบัติ ก่อนอื่นเราควรกระตุ้นให้เกิดความยืดหยุ่นของตาข่ายจากมุมมองของเชือก นั่นคือการอ้างถึงHastie และ Zou "ถ้ามีกลุ่มของตัวแปรที่มีความสัมพันธ์แบบคู่เป็นจำนวนสูงมากจากนั้น lasso จะเลือกตัวแปรเพียงตัวเดียวจากกลุ่มและไม่สนใจว่าจะเลือกตัวใด" ยกตัวอย่างเช่นนี่เป็นปัญหาเพราะมันหมายความว่าเราไม่น่าจะพบองค์ประกอบของการสนับสนุนที่แท้จริงโดยใช้เชือก - เพียงหนึ่งที่มีความสัมพันธ์อย่างมากกับมัน (กระดาษกล่าวว่าเรื่องนี้ได้รับการพิสูจน์ในกระดาษ LARS ซึ่งผมยังไม่ได้อ่านเลย.) ความยากลำบากของการกู้คืนการสนับสนุนในการปรากฏตัวของความสัมพันธ์ยังเป็นแหลมออกโดยเวนไรท์ ,0.5เมื่อมีความสัมพันธ์สูงระหว่างการสนับสนุนที่แท้จริงและความสมบูรณ์
ตอนนี้การลงโทษ l2 ในเครือข่ายยืดหยุ่นสนับสนุนคุณสมบัติที่มีค่าสัมประสิทธิ์ที่ถือว่าแยกไม่ออกโดยการสูญเสียและการลงโทษ l1 ที่จะมีค่าสัมประสิทธิ์โดยประมาณเท่ากัน เราสามารถเห็นสิ่งนี้อย่างอิสระโดยสังเกตว่าตาม. ด้วยเหตุนี้ตาข่ายยางยืดจึงทำให้เรามีโอกาสน้อยที่จะ 'บังเอิญ' ทำให้ค่าประมาณสัมประสิทธิ์หายไปซึ่งเป็นการสนับสนุนที่แท้จริง นั่นคือการสนับสนุนที่แท้จริงมีแนวโน้มที่จะอยู่ภายในการสนับสนุนที่คาดการณ์ไว้ ดีแล้ว! หมายความว่ามีการค้นพบที่ผิดพลาดมากขึ้น แต่นั่นเป็นราคาที่คนส่วนใหญ่ยินดีจ่าย( a , b ) = หาเรื่องนาทีa', ข': c = | '| + | ข'|( ก')2+ ( b')2| a | = | b |
นอกจากนี้มันก็คุ้มค่าที่ชี้ให้เห็นว่าความจริงที่ว่าคุณสมบัติที่มีความสัมพันธ์สูงมักจะมีค่าสัมประสิทธิ์ที่คล้ายกันมากทำให้เราสามารถตรวจจับการจัดกลุ่มของคุณสมบัติภายในการสนับสนุนที่คาดการณ์ซึ่งมีอิทธิพลต่อการตอบสนองในทำนองเดียวกัน
คาดการณ์
ตอนนี้เราไปยังการทำนาย ขณะที่ Matthew Gunn ชี้ให้เห็นการเลือกพารามิเตอร์การปรับแต่งผ่านการตรวจสอบความถูกต้องของข้อมูลจะสร้างจุดมุ่งหมายในการเลือกแบบจำลองที่มีข้อผิดพลาดในการทำนายน้อยที่สุด เนื่องจากแบบจำลองใด ๆ ที่เลือกโดย lasso สามารถเลือกได้โดย elastic net (โดยการ ), จึงมีความรู้สึกว่า net elastic นั้นสามารถหาแบบจำลองที่ทำนายได้ดีกว่า lassoα = 1
Lederer, Yu และ Gaynanovaแสดงภายใต้ข้อสันนิษฐานใด ๆ เกี่ยวกับคุณสมบัติที่เชือกและตาข่ายยืดหยุ่นสามารถมีข้อผิดพลาดการทำนาย l2 ของพวกเขาล้อมรอบด้วยปริมาณเดียวกัน มันไม่ได้เป็นความจริงที่ว่าขอบเขตของพวกมันจะแน่น แต่นี่อาจเป็นเรื่องที่น่าสนใจที่จะต้องทราบเนื่องจากความไม่เท่าเทียมกันของ oracleดูเหมือนจะเป็นวิธีมาตรฐานในวรรณคดีเชิงสถิติเพื่อวัดประสิทธิภาพการทำนายของตัวประมาณ - บางทีอาจเป็นการกระจาย นอกจากนี้ยังเป็นที่น่าสังเกตว่า Lederer (1) (2)มีเอกสารบางส่วนเกี่ยวกับการคาดการณ์ของบ่วงบาศในลักษณะที่สัมพันธ์กัน
สรุป
โดยสรุปแล้วปัญหาที่น่าสนใจคือการสนับสนุนที่แท้จริงซึ่งอยู่ภายในการสนับสนุนและการคาดการณ์ที่คาดการณ์ไว้ สำหรับการกู้คืนการสนับสนุนมีการรับประกันที่พิสูจน์แล้วอย่างเข้มงวด (ผ่าน Wainwright) ที่ Lasso เลือกคุณลักษณะที่ถูกต้องที่จะอยู่ในรูปแบบภายใต้สมมติฐานของความสัมพันธ์ต่ำระหว่างการสนับสนุนที่แท้จริงและส่วนประกอบที่สมบูรณ์ อย่างไรก็ตามในการปรากฏตัวของความสัมพันธ์เราสามารถถอยกลับไปที่ตาข่ายยืดหยุ่นเพื่อมีแนวโน้มที่จะเลือกคุณสมบัติในการสนับสนุนที่แท้จริงให้เป็นหนึ่งในทั้งหมดที่มันเลือก (โปรดทราบว่าเราต้องเลือกพารามิเตอร์การปรับอย่างระมัดระวังที่นี่) และสำหรับการคาดการณ์เมื่อเราเลือกพารามิเตอร์การปรับแต่งผ่านการตรวจสอบความถูกต้องของ Cross มันทำให้รู้สึกว่าสัญชาตญาณยืดหยุ่นสุทธิควรทำงานได้ดีกว่าเชือก - โดยเฉพาะอย่างยิ่งเมื่อมีความสัมพันธ์ .
วางการคาดการณ์และแบบแผนบางอย่างไว้เราเรียนรู้อะไร เราเรียนรู้เกี่ยวกับการสนับสนุนที่แท้จริง
ช่วงความเชื่อมั่น
เป็นมูลค่าที่ชี้ให้เห็นว่ามีการเปลี่ยนแปลงมากมายใน 2 ปีที่ผ่านมาเกี่ยวกับการอนุมานที่ถูกต้องสำหรับเชือก โดยเฉพาะอย่างยิ่งงานของLee, Sun, Sun และ Taylorให้การอนุมานที่แน่นอนสำหรับค่าสัมประสิทธิ์ของ lasso ตามเงื่อนไขในแบบจำลองที่ได้รับการคัดเลือก (ผลลัพธ์จากการอนุมานใน Lasso สำหรับค่าสัมประสิทธิ์ที่แท้จริงอยู่ที่ช่วงเวลาที่ทำการไปรษณีย์ของ OP และสรุปได้ดีในเอกสารที่เชื่อมโยง)