สมมติว่าคุณมีตัวแปรทำนายที่มีความสัมพันธ์สูงสองตัวคือและสมมติว่าทั้งสองอยู่กึ่งกลางและปรับขนาด (หมายถึงศูนย์, ผลต่างหนึ่ง) แล้วโทษสันเขาบนเวกเตอร์พารามิเตอร์เป็นβ 2 1 + β 2 2ในขณะที่ระยะโทษเชือกคือ| เบต้า1 | + | β 2 | ทีนี้เนื่องจากโมเดลควรมีค่า colinear สูงดังนั้นxและzมากขึ้นหรือน้อยลงสามารถใช้แทนกันในการทำนายY , การรวมกันเชิงเส้นจำนวนมากของx , zซึ่งเราแทนกันเพียงส่วนเดียวx,zβ21+β22∣β1∣+∣β2∣xzYx,zสำหรับ zจะทำงานคล้ายกันกับตัวทำนายเช่น 0.2 x + 0.8 x , 0.3 x + 0.7 zหรือ 0.5 x + 0.5 zxz0.2x+0.8x,0.3x+0.7z0.5x+0.5zจะดีพอ ๆ กับผู้ทำนาย ทีนี้ลองดูตัวอย่างทั้งสามนี้การลงโทษด้วยเชือกในทั้งสามกรณีเท่ากันคือ 1 ในขณะที่การลงโทษสันเขาแตกต่างกันตามลำดับ 0.68, 0.58, 0.5 ดังนั้นการลงโทษสันจะชอบการให้น้ำหนักที่เท่ากันของตัวแปรโคลิเนียร์ จะไม่สามารถเลือกได้ นี่คือเหตุผลหนึ่งที่สัน (หรือโดยทั่วไปแล้วตาข่ายยืดหยุ่นซึ่งเป็นการรวมกันเชิงเส้นของการลงโทษแบบบ่วงบาศและสันเขา) จะทำงานได้ดีขึ้นกับตัวพยากรณ์แบบโคลิเนีย: เมื่อข้อมูลให้เหตุผลเล็กน้อยที่จะเลือกระหว่างการผสมแบบเชิงเส้นของตัวทำนายแบบโคลิเนีย "เดิน" ในขณะที่สันมีแนวโน้มที่จะเลือกน้ำหนักที่เท่ากัน สุดท้ายอาจเป็นการเดาที่ดีกว่าสำหรับใช้กับข้อมูลในอนาคต! และถ้าเป็นเช่นนั้นกับข้อมูลปัจจุบันสามารถแสดงในการตรวจสอบข้ามเป็นผลลัพธ์ที่ดีขึ้นกับสัน
เราสามารถดูสิ่งนี้ได้ในแบบเบย์: สันเขาและบ่วงบาศหมายถึงข้อมูลก่อนหน้าที่แตกต่างกันและข้อมูลก่อนหน้าโดยสันเขามีแนวโน้มที่จะมีเหตุผลมากขึ้นในสถานการณ์เช่นนี้ (คำอธิบายที่นี่ฉันเรียนรู้มากหรือน้อยจากหนังสือ: "การเรียนรู้เชิงสถิติด้วย Sparsity The Lasso and Generalisations" โดย Trevor Hastie, Robert Tibshirani และ Martin Wainwright แต่ตอนนี้ฉันไม่สามารถหาคำพูดได้โดยตรง)