การลงโทษแบบนุ่มนวลเทียบกับการลงโทษ


11

ฉันกำลังพยายามสรุปสิ่งที่ฉันเข้าใจจนถึงการวิเคราะห์หลายตัวแปรที่มีการลงโทษด้วยชุดข้อมูลมิติสูงและฉันยังคงดิ้นรนโดยใช้คำจำกัดความที่ถูกต้องเกี่ยวกับการลงโทษที่นุ่มนวลกับLasso (หรือ )L1

แม่นยำยิ่งขึ้นฉันใช้การกระจัดกระจาย PLS เพื่อวิเคราะห์โครงสร้างข้อมูลแบบ 2 บล็อกรวมถึงข้อมูลจีโนม ( polymorphisms นิวคลีโอไทด์เดี่ยวที่เราพิจารณาความถี่ของอัลลีลย่อยในช่วง {0,1,2} ซึ่งถือว่าเป็นตัวแปรตัวเลข) และ ฟีโนไทป์ต่อเนื่อง (คะแนนเชิงปริมาณลักษณะบุคลิกภาพหรือความไม่สมดุลของสมองยังถือว่าเป็นตัวแปรต่อเนื่อง) ความคิดคือการแยกตัวทำนายที่มีอิทธิพลมากที่สุด (ที่นี่ความผันแปรทางพันธุกรรมในลำดับดีเอ็นเอ) เพื่ออธิบายการแปรผันของฟีโนไทป์ระหว่างบุคคล

ฉันเริ่มใช้แพ็คเกจ mixOmics R (เดิมintegrOmics) ซึ่งมีการลงโทษPLSและCCA ที่ทำให้เป็นมาตรฐาน เมื่อมองไปที่รหัส R เราพบว่า "sparsity" ในตัวทำนายนั้นเกิดจากการเลือกตัวแปรอันดับสูงสุดที่มีการโหลดสูงสุด (ในค่าสัมบูรณ์) บนองค์ประกอบ th, (อัลกอริทึม คือการทำซ้ำและคำนวณตัวแปรของการโหลดในองค์ประกอบทำให้ตัวบล็อกการทำนายในแต่ละการวนซ้ำดูการกระจัดกระจาย PLS: การเลือกตัวแปรเมื่อรวมข้อมูล Omicsสำหรับภาพรวม) ในทางตรงกันข้ามแพ็คเกจsplsร่วมเขียนโดย S. Keleş (ดูkii=1,,kkเบาบางบางส่วนแควน้อยถดถอยสำหรับพร้อมกันขนาดลดลงและการคัดเลือกตัวแปรสำหรับคำอธิบายที่เป็นทางการมากขึ้นของวิธีการดำเนินการโดยผู้เขียนเหล่านี้) การดำเนินการ -penalization สำหรับการปรับไหมตัวแปรL1

มันไม่ได้เป็นที่เห็นได้ชัดกับผมว่ามีความเข้มงวด "bijection" เพื่อที่จะพูดระหว่างการเลือกคุณลักษณะซ้ำขึ้นอยู่กับนุ่ม thresholding และกู ดังนั้นคำถามของฉันคือ: มีการเชื่อมต่อทางคณิตศาสตร์ระหว่างทั้งสองหรือไม่L1

อ้างอิง

  1. จุนเอชและ Kele S, S. (2010), เบาบางสี่เหลี่ยมอย่างน้อยบางส่วนสำหรับการลดมิติพร้อมกันและการเลือกตัวแปร วารสารสมาคมสถิติรอยัล: อนุกรม B , 72 , 3–25
  2. Le เฉา K.-A. , Rossouw, D. , โรเบิร์ต Granie ซีและ Besse, P. (2008), หร็อมแหร็ม PLS การคัดเลือกตัวแปรเมื่อการบูรณาการข้อมูล การประยุกต์ใช้สถิติในพันธุศาสตร์และอณูชีววิทยา , 7 , มาตรา 35

คำตอบ:


2

สิ่งที่ฉันจะบอกว่ามีไว้สำหรับการถดถอย แต่ควรเป็นจริงสำหรับ PLS ด้วย ดังนั้นจึงไม่ bijection เพราะ depeding กับเท่าใดคุณบังคับใช้ข้อ จำกัด ในคุณจะมีความหลากหลายของ 'คำตอบ' ในขณะที่การแก้ปัญหาที่สองยอมรับเพียงคำตอบที่เป็นไปได้ (ที่คือจำนวนของตัวแปร) <-> มี โซลูชันเพิ่มเติมในสูตรมากกว่าในสูตร 'ตัดปลาย'l1ppl1


@ Kwak Ok อัลกอริทึม LARS ดูเหมือนจะซับซ้อนกว่าการนวดแบบง่าย ๆ บนความสำคัญของตัวแปร แต่ประเด็นคือฉันไม่เห็นความสัมพันธ์ที่ชัดเจนระหว่างพารามิเตอร์การลงโทษและ # ของตัวแปรที่ถูกขอให้เก็บไว้ในแบบจำลอง สำหรับฉันดูเหมือนว่าเราไม่สามารถหาพารามิเตอร์การลงโทษที่จะให้ค่าคงที่ของตัวแปร #
chl

@chl:> S-PLS คุณหมายความว่าอย่างไร (คุณเขียน LARS ซึ่งแตกต่างจากอัลกอริทึมที่คุณพูดถึง) อันที่จริงมีความสัมพันธ์ที่น่าเบื่อหน่ายระหว่างพารามิเตอร์การลงโทษและ # ขององค์ประกอบ แต่มันไม่ได้เป็นความสัมพันธ์เชิงเส้นและความสัมพันธ์นี้แตกต่างกันไปในแต่ละกรณีพื้นฐาน (เป็นชุดข้อมูล / ปัญหาขึ้นอยู่กับ)
user603

@kwak การลงโทษ L1 อาจทำได้โดยใช้ LARS ยกเว้นว่าฉันเข้าใจผิด ประเด็นที่สองของคุณคือสิ่งที่ฉันมีอยู่ในใจในความเป็นจริง คุณมีข้อมูลอ้างอิงเกี่ยวกับประเด็นนั้นหรือไม่?
chl

@chl:> * การลงโทษ L1 สามารถทำได้โดยใช้ LARS ยกเว้นว่าฉันกำลังทำให้เข้าใจผิด * ฉันไม่ทราบ (และไม่ต้องสงสัยเลย) คุณสามารถให้การอ้างอิงได้หรือไม่? ขอบคุณ สำหรับคำถามที่สองของคุณให้ดูที่ "องศาอิสระ" ของ Lasso Hui Zou, Trevor Hastie และ Robert Tibshirani ที่มา: Ann. statist เล่มที่ 35, หมายเลข 5 (2007), 2173-2192 (มีรุ่นที่ไม่ได้ปรับปรุงจำนวนมาก)
user603

1
@kwak ลองดูหน้าเว็บของTibshirani , www-stat.stanford.edu/~tibs/lasso.htmlและlarsแพ็คเกจ R; วิธีการอื่น ๆ รวมถึงการประสานงานโคตร (ดู JSS 2010 33 (1), bit.ly/bDNUFo ) และงูหลามscikit.learnแพคเกจมีวิธีการทั้งสองbit.ly/bfhnZz
chl

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.