ถ้าฉันเข้าใจคำจำกัดความของความถูกต้องแม่นยำความถูกต้อง (% ของจุดข้อมูลที่จำแนกอย่างถูกต้อง) นั้นจะถูกสะสมน้อยกว่าที่จะบอกว่า MSE (หมายถึงข้อผิดพลาดกำลังสอง) นั่นเป็นเหตุผลที่คุณเห็นว่าคุณloss
เพิ่มขึ้นอย่างรวดเร็วในขณะที่ความแม่นยำมีความผันผวน
โดยพื้นฐานแล้วนี่หมายถึงว่าบางส่วนของตัวอย่างถูกจำแนกแบบสุ่มซึ่งก่อให้เกิดความผันผวนเนื่องจากจำนวนของการคาดเดาแบบสุ่มที่ถูกต้องมักจะเปลี่ยนแปลงตลอดเวลา โดยทั่วไปความไวต่อสัญญาณรบกวน (เมื่อการจำแนกประเภทก่อให้เกิดผลลัพธ์แบบสุ่ม) เป็นคำจำกัดความทั่วไปของการ overfitting (ดูวิกิพีเดีย):
ในสถิติและการเรียนรู้ของเครื่องหนึ่งในภารกิจที่พบบ่อยที่สุดคือการใส่ "แบบจำลอง" เข้ากับชุดข้อมูลการฝึกอบรมเพื่อให้สามารถคาดการณ์ที่เชื่อถือได้สำหรับข้อมูลที่ไม่ได้รับการฝึกฝนทั่วไป ในการ overfitting แบบจำลองทางสถิติอธิบายข้อผิดพลาดแบบสุ่มหรือเสียงรบกวนแทนที่จะเป็นความสัมพันธ์พื้นฐาน
หลักฐานของการ overfitting ก็คือการสูญเสียของคุณเพิ่มขึ้นการสูญเสียวัดได้แม่นยำมากขึ้นมันมีความไวต่อการคาดคะเนเสียงดังหากไม่ได้ถูกบีบอัดโดย sigmoids / เกณฑ์ โดยสังเขปคุณสามารถจินตนาการถึงสถานการณ์เมื่อเครือข่ายมั่นใจเกินไปเกี่ยวกับเอาต์พุต (เมื่อมันผิด) ดังนั้นมันจึงให้ค่าที่อยู่ห่างจากขีด จำกัด ในกรณีที่มีการจำแนกประเภทแบบสุ่ม
เกี่ยวกับกรณีของคุณแบบจำลองของคุณไม่ได้รับการจัดวางอย่างเหมาะสมและเป็นไปได้:
- จุดข้อมูลไม่เพียงพอความจุมากเกินไป
- การสั่งซื้อ
- การปรับขนาดคุณสมบัติไม่ผิด / การทำให้เป็นมาตรฐาน
- ααα
การแก้ปัญหาที่เป็นไปได้:
- รับจุดข้อมูลเพิ่มเติม (หรือขยายชุดของวัตถุที่มีอยู่จริง ๆ )
- เล่นกับพารามิเตอร์ไฮเปอร์ (เพิ่ม / ลดความจุหรือเงื่อนไขการทำให้เป็นมาตรฐานเป็นต้น)
- การทำให้เป็นมาตรฐาน : ลองออกกลางคันหยุดเร็วเป็นต้น