ในการเพิ่มลักษณนามอ่อนแอหรือไม่เสถียรจะใช้เป็นผู้เรียนฐาน กรณีนี้เป็นเพราะจุดมุ่งหมายคือการสร้างขอบเขตการตัดสินใจที่แตกต่างกันมาก จากนั้นผู้เรียนพื้นฐานที่ดีคือผู้ที่มีอคติสูงกล่าวอีกนัยหนึ่งผลลัพธ์ยังคงเหมือนเดิมแม้เมื่อพารามิเตอร์การฝึกอบรมสำหรับผู้เรียนพื้นฐานเปลี่ยนไปเล็กน้อย
ในเครือข่ายนิวรัลการออกกลางคันเป็นเทคนิคการทำให้เป็นมาตรฐานที่สามารถนำมาเปรียบเทียบกับการฝึกอบรมตระการตา ความแตกต่างคือการรวมกลุ่มทำในพื้นที่แฝง (มีเซลล์ประสาทอยู่หรือไม่) ดังนั้นจึงลดข้อผิดพลาดในการวางนัยทั่วไป
"ตัวอย่างเช่นการฝึกอบรมแต่ละคนสามารถจึงถูกมองว่าเป็นให้การไล่ระดับสีแตกต่างกัน, สถาปัตยกรรมสุ่มเพื่อให้โครงข่ายประสาทสุดท้ายได้อย่างมีประสิทธิภาพหมายถึงชุดใหญ่ของเครือข่ายประสาทที่มีความสามารถทั่วไปดี" - ข้อความจากที่นี่
มีสองเทคนิคดังกล่าว: ในเซลล์ดร็อปดาวน์ถูกดร็อป (หมายถึงเซลล์ประสาทที่มีอยู่หรือไม่มีความน่าจะเป็นบางอย่าง) ในขณะที่dropconnectน้ำหนักจะลดลง
ตอนนี้เพื่อตอบคำถามของคุณฉันเชื่อว่าเครือข่ายประสาท (หรือ perceptrons) ไม่ได้ใช้เป็นผู้เรียนพื้นฐานในการตั้งค่าการกระตุ้นเนื่องจากพวกเขาช้ากว่าในการฝึกอบรม (ใช้เวลามากเกินไป) และผู้เรียนไม่อ่อนแอแม้ว่าพวกเขาจะทำได้ จะตั้งค่าให้ไม่แน่นอนมากขึ้น ดังนั้นจึงไม่คุ้มค่ากับความพยายาม
อาจมีการวิจัยในหัวข้อนี้ แต่ก็น่าเสียดายที่ความคิดที่ทำงานได้ไม่ดีมักจะไม่ประสบความสำเร็จ เราต้องการงานวิจัยเพิ่มเติมที่ครอบคลุมเส้นทางที่ไม่ได้นำไปสู่ทุกที่หรือที่รู้จักว่า "ไม่ต้องลองสิ่งนี้"
แก้ไข:
ฉันมีอีกเล็กน้อยเกี่ยวกับเรื่องนี้และถ้าคุณสนใจในตระการตาของเครือข่ายขนาดใหญ่แล้วคุณอาจจะหมายถึงวิธีการรวมเอาท์พุทของเครือข่ายดังกล่าวหลาย คนส่วนใหญ่ใช้ค่าเฉลี่ยหรือใช้การลงคะแนนส่วนใหญ่ขึ้นอยู่กับงานซึ่งอาจไม่เหมาะสม ฉันเชื่อว่ามันเป็นไปได้ที่จะเปลี่ยนน้ำหนักของแต่ละเครือข่ายเอาท์พุทตามข้อผิดพลาดในการบันทึกเฉพาะ ยิ่งเอาต์พุตมีความสัมพันธ์กันน้อย