คุณกำลังสับสนเอนทิตี้สองแบบที่แตกต่างกัน: (1) ความแปรปรวนแบบอคติและความซับซ้อนของแบบจำลอง (2)
(1) over-fitting เป็นสิ่งที่ไม่ดีในการเรียนรู้ของเครื่องเพราะมันเป็นไปไม่ได้ที่จะเก็บตัวอย่างประชากรที่ไม่มีอคติอย่างแท้จริงของข้อมูลใด ๆ แบบจำลองที่มีขนาดพอดีทำให้ผลลัพธ์ของพารามิเตอร์ที่มีอคติกับตัวอย่างแทนที่จะประเมินค่าพารามิเตอร์อย่างเหมาะสมสำหรับประชากรทั้งหมด ซึ่งหมายความว่ามีจะยังคงเป็นความแตกต่างระหว่างประมาณค่าพารามิเตอร์และพารามิเตอร์ที่เหมาะสมไม่คำนึงถึงจำนวนของ epochs ฝึกอบรมnไว*nϕ^ϕ∗n
e ϕ|ϕ∗−ϕ^|→eϕ as n→∞โดยที่เป็นค่าขอบเขตeϕ
(2) ความซับซ้อนของโมเดลคือในแง่ง่ายจำนวนของพารามิเตอร์ใน\หากความซับซ้อนของโมเดลอยู่ในระดับต่ำแล้วมีข้อผิดพลาดจะยังคงถดถอยคำนึงถึงจำนวนของการฝึกอบรม epochs แม้ในขณะที่เท่ากับประมาณ{*} ตัวอย่างที่ง่ายที่สุดคือการเรียนรู้เพื่อให้พอดีกับเส้น (y = mx + c) โดยที่กับข้อมูลบนเส้นโค้ง (พหุนามกำลังสอง)φ φ φ * φ = { ม, ค}ϕϕ^ϕ∗ϕ={m,c}
e ME[|y−M(ϕ^)|]→eM as n→∞โดยที่เป็นข้อผิดพลาดแบบพอดีขอบเขตการถดถอยeM
สรุป: ใช่ทั้งอคติตัวอย่างและความซับซ้อนของโมเดลมีส่วนทำให้ 'คุณภาพ' ของโมเดลที่เรียนรู้ แต่ไม่ส่งผลกระทบโดยตรงต่อกัน หากคุณมีข้อมูลลำเอียงไม่ว่าจะมีจำนวนพารามิเตอร์ที่ถูกต้องและการฝึกอบรมที่ไม่มีที่สิ้นสุดรูปแบบการเรียนรู้ขั้นสุดท้ายจะมีข้อผิดพลาด ในทำนองเดียวกันถ้าคุณมีพารามิเตอร์น้อยกว่าจำนวนที่กำหนดไม่ว่าการสุ่มตัวอย่างที่เป็นกลางและการฝึกอบรมที่ไม่มีที่สิ้นสุดอย่างสมบูรณ์แบบใดรูปแบบการเรียนรู้ขั้นสุดท้ายจะมีข้อผิดพลาด