เชื่อมต่ออย่างสมบูรณ์ (อย่างน้อยเลเยอร์ถึงเลเยอร์ที่มีมากกว่า 2 เลเยอร์ที่ซ่อนอยู่) เครือข่าย backprop เป็นผู้เรียนที่เป็นสากล น่าเสียดายที่พวกเขามักจะเรียนรู้ช้าและมีแนวโน้มที่จะกระชับหรือมีลักษณะทั่วไปที่น่าอึดอัดใจ
จากการหลอกลวงรอบ ๆ ด้วยเครือข่ายเหล่านี้ฉันได้สังเกตว่าการตัดขอบบางส่วน (เพื่อให้น้ำหนักของพวกเขานั้นเป็นศูนย์และเป็นไปไม่ได้ที่จะเปลี่ยนแปลง) มีแนวโน้มที่จะทำให้เครือข่ายเรียนรู้ได้เร็วขึ้น มีเหตุผลสำหรับสิ่งนี้หรือไม่? เป็นเพราะการลดขนาดของพื้นที่ค้นหาตุ้มน้ำหนักหรือมีเหตุผลที่ลึกซึ้งกว่านี้หรือไม่
ยิ่งไปกว่านั้นการวางนัยทั่วไปที่ดีกว่าเป็นสิ่งประดิษฐ์ของปัญหา 'ธรรมชาติ' ที่ฉันกำลังมองหาอยู่?