คำถามติดแท็ก regularization

5
ทำไมการเพิ่มชั้นการออกกลางคันช่วยเพิ่มประสิทธิภาพการเรียนรู้อย่างลึก / ด้วยเครื่องจักรเนื่องจากการออกกลางคันช่วยยับยั้งเซลล์ประสาทบางส่วนจากแบบจำลอง
หากการเอาเซลล์ประสาทออกบางส่วนจะส่งผลให้แบบจำลองมีประสิทธิภาพดีขึ้นทำไมไม่ลองใช้โครงข่ายประสาทที่เรียบง่ายกว่าโดยมีเลเยอร์น้อยลงและมีเซลล์ประสาทน้อยลงในตอนแรก เหตุใดจึงต้องสร้างแบบจำลองที่ใหญ่และซับซ้อนกว่าเดิมในตอนเริ่มต้นและระงับบางส่วนในภายหลัง

2
เหตุใดจึงต้องใช้การทำให้เป็นมาตรฐาน L1 บน L2
การสร้างแบบจำลองการถดถอยเชิงเส้นโดยใช้ฟังก์ชั่นการสูญเสียทำไมฉันจึงควรใช้ L1L1L_1 แทน L2L2L_2 กู? การป้องกันการ overfitting ดีกว่าไหม มันเป็นสิ่งที่กำหนด (เสมอดังนั้นวิธีการแก้ปัญหาที่ไม่ซ้ำกัน)? จะดีกว่าในการเลือกคุณสมบัติ (เพราะการผลิตแบบจำลองกระจัดกระจาย)? มันกระจายน้ำหนักในคุณสมบัติหรือไม่

3
การเลือกวิธีการทำให้เป็นมาตรฐานในเครือข่ายประสาท
เมื่อฝึกอบรมเครือข่ายประสาทเทียมมีอย่างน้อย 4 วิธีในการทำให้เป็นปกติของเครือข่าย: การทำให้เป็นมาตรฐาน L1 การทำให้เป็นมาตรฐาน L2 การออกกลางคัน การปรับสภาพเป็นกลุ่ม บวกกับสิ่งอื่น ๆ เช่นการแบ่งปันน้ำหนักและการลดจำนวนการเชื่อมต่อซึ่งอาจไม่ได้มาตรฐานในแง่ที่เข้มงวดที่สุด แต่เราจะเลือกวิธีการทำให้เป็นมาตรฐานแบบใดที่จะใช้? มีวิธีหลักการมากกว่า "เพียงแค่ลองทุกอย่างและดูว่าอะไรทำงาน"?

2
มีการศึกษาใดที่ตรวจสอบการออกกลางคันเทียบกับการทำให้เป็นมาตรฐานอื่น ๆ ?
มีเอกสารใดที่ตีพิมพ์ซึ่งแสดงความแตกต่างของวิธีการทำให้เป็นมาตรฐานสำหรับเครือข่ายประสาทโดยเฉพาะอย่างยิ่งในโดเมนที่ต่างกัน (หรืออย่างน้อยชุดข้อมูลที่แตกต่างกัน) ฉันถามเพราะตอนนี้ฉันมีความรู้สึกว่าคนส่วนใหญ่ดูเหมือนจะใช้การออกกลางคันสำหรับการมองเห็นในคอมพิวเตอร์เป็นประจำ ฉันต้องการตรวจสอบว่ามีเหตุผล (ไม่) ที่จะใช้วิธีการทำให้เป็นมาตรฐานแบบต่างๆ
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.