ฉันเพิ่งเรียนรู้เกี่ยวกับการทำให้เป็นมาตรฐานเป็นแนวทางในการควบคุมการปรับตัวให้เหมาะสมและฉันต้องการที่จะรวมแนวคิดนี้ไว้ในการติดตั้ง backpropagation และMultilayer perceptron (MLP) ที่เรียบง่าย
ขณะนี้เพื่อหลีกเลี่ยงการปรับตัวเกินฉันข้ามการตรวจสอบและรักษาเครือข่ายด้วยคะแนนที่ดีที่สุดจนถึงชุดการตรวจสอบ การทำงานนี้ใช้ได้ แต่การเพิ่มการทำให้เป็นมาตรฐานจะเป็นประโยชน์กับฉันในการเลือกอัลกอริธึมและพารามิเตอร์ในการทำให้เป็นมาตรฐานจะทำให้เครือข่ายของฉันมาบรรจบกันในรูปแบบที่ไม่เหมาะอย่างเป็นระบบมากขึ้น
สูตรที่ฉันมีสำหรับคำที่ใช้ในการปรับปรุง (จากหลักสูตร Coursera ML) ระบุไว้เป็นชุดการปรับปรุงเช่นสำหรับแต่ละน้ำหนักหลังจากรวม deltas ที่เกี่ยวข้องทั้งหมดสำหรับชุดการฝึกอบรมทั้งหมดจากการเผยแพร่ข้อผิดพลาดการปรับปรุงlambda * current_weight
จะถูกเพิ่มเช่นกัน เดลต้าจะถูกลบออกในตอนท้ายของแบทช์โดยที่lambda
พารามิเตอร์การทำให้เป็นปกติ
การติดตั้ง backpropagation ของฉันใช้การอัพเดทน้ำหนักต่อรายการ ฉันกังวลว่าฉันไม่สามารถคัดลอกวิธีการแบทช์ได้แม้ว่าจะดูเป็นเรื่องง่ายสำหรับฉัน คำศัพท์ธรรมดาที่มีขนาดเล็กกว่าใช้กับสินค้าได้หรือไม่
ตัวอย่างเช่นlambda * current_weight / N
ที่ N คือขนาดของชุดการฝึกอบรม - ในแวบแรกนี่ดูสมเหตุสมผล ฉันไม่พบสิ่งใดในหัวเรื่องและฉันสงสัยว่านั่นเป็นเพราะการทำให้เป็นมาตรฐานไม่ทำงานเช่นกันกับการอัปเดตต่อรายการหรือแม้แต่ไปอยู่ภายใต้ชื่ออื่นหรือสูตรที่เปลี่ยนแปลง