คำจำกัดความทางคณิตศาสตร์ / อัลกอริทึมสำหรับ overfitting


18

มีคำจำกัดความทางคณิตศาสตร์หรืออัลกอริธึมเกี่ยวกับการบรรจุมากเกินไปหรือไม่?

คำจำกัดความที่มีให้บ่อยครั้งคือพล็อต 2-D แบบคลาสสิกของจุดที่มีเส้นที่ผ่านทุกจุดและเส้นโค้งการสูญเสียการตรวจสอบจะขึ้นไป

แต่มีนิยามที่เข้มงวดทางคณิตศาสตร์หรือไม่?

คำตอบ:


22

ใช่มีคำจำกัดความที่เข้มงวด (อีกเล็กน้อย):

ด้วยรูปแบบที่มีชุดของพารามิเตอร์แบบจำลองสามารถกล่าวได้ว่าเป็นข้อมูลที่มากเกินไปหากหลังจากขั้นตอนการฝึกอบรมจำนวนหนึ่งข้อผิดพลาดการฝึกอบรมจะลดลงอย่างต่อเนื่องในขณะที่ข้อผิดพลาดจากตัวอย่าง (ทดสอบ) เริ่มเพิ่มขึ้น

ป้อนคำอธิบายรูปภาพที่นี่ ในตัวอย่างนี้ออกจากข้อผิดพลาด (การทดสอบ / การตรวจสอบความถูกต้อง) ตัวอย่างแรกลดลงในการซิงค์กับข้อผิดพลาดของรถไฟจากนั้นมันจะเริ่มเพิ่มขึ้นรอบยุคที่ 90 นั่นคือเมื่อการเริ่มต้นการบรรจุมากเกินไป

อีกวิธีในการดูคือในแง่ของความเอนเอียงและความแปรปรวน ข้อผิดพลาดนอกตัวอย่างสำหรับแบบจำลองสามารถแบ่งออกเป็นสององค์ประกอบ:

  • Bias: ข้อผิดพลาดเนื่องจากค่าที่คาดหวังจากแบบจำลองโดยประมาณแตกต่างจากค่าที่คาดหวังของแบบจำลองจริง
  • ความแปรปรวน: ข้อผิดพลาดเนื่องจากตัวแบบมีความอ่อนไหวต่อความผันผวนเล็กน้อยในชุดข้อมูล

X

Y=(X)+εεE(ε)=0VaR(ε)=σε

และแบบจำลองโดยประมาณคือ:

Y^=^(X)

xเสื้อ

ERR(xเสื้อ)=σε+Bผมas2+VaRผมanอี

Bผมas2=E[(xเสื้อ)-^(xเสื้อ)]2VaRผมanอี=E[^(xเสื้อ)-E[^(xเสื้อ)]]2

(การพูดอย่างสลายตัวนี้ใช้ในกรณีการถดถอย แต่การสลายตัวที่คล้ายกันทำงานสำหรับฟังก์ชั่นการสูญเสียใด ๆ เช่นในกรณีการจำแนกประเภทเช่นกัน)

คำจำกัดความทั้งสองข้างต้นเชื่อมโยงกับความซับซ้อนของแบบจำลอง (วัดจากจำนวนพารามิเตอร์ในแบบจำลอง): ความซับซ้อนของแบบจำลองที่สูงขึ้นมีโอกาสมากขึ้นที่จะเกิดการ overfitting

ดูบทที่ 7 ขององค์ประกอบของการเรียนรู้ทางสถิติสำหรับการรักษาทางคณิตศาสตร์อย่างเข้มงวดของหัวข้อ

ป้อนคำอธิบายรูปภาพที่นี่ Bias-Variance tradeoff และ Variance (เช่น overfitting) เพิ่มขึ้นตามความซับซ้อนของโมเดล นำมาจาก ESL บทที่ 7


1
เป็นไปได้ไหมที่ทั้งข้อผิดพลาดในการฝึกอบรมและการทดสอบจะลดลง ในใจของฉันความแตกต่างของการฝึกอบรมและข้อผิดพลาดในการทดสอบแสดงให้เห็นถึงการบรรจุเกิน แต่การบรรจุมากเกินไปไม่จำเป็นต้องยกความแตกต่าง ตัวอย่างเช่น NN ที่เรียนรู้ที่จะแยกแยะอาชญากรจากอาชญากรที่ไม่ใช่โดยการจำพื้นหลังสีขาวของรูปถ่ายของคุกกำลัง overfitting แต่ข้อผิดพลาดการฝึกอบรมและการทดสอบอาจไม่ได้แยกจากกัน
yters

@yters ในกรณีนั้นฉันไม่คิดว่าจะมีวิธีใดที่จะวัดค่า overfitting ที่เกิดขึ้นได้ สิ่งที่คุณสามารถเข้าถึงได้คือข้อมูลการฝึกอบรมและการทดสอบและหากทั้งสองชุดข้อมูลแสดงคุณลักษณะเดียวกันกับที่ NN ใช้ประโยชน์จาก (พื้นหลังสีขาว) นั่นเป็นเพียงคุณลักษณะที่ถูกต้องที่ควรได้รับประโยชน์ หากคุณไม่ต้องการคุณสมบัตินั้นคุณจะต้องรวมชุดรูปแบบในชุดข้อมูลของคุณ
Calvin Godfrey

1
@ ได้เป็นตัวอย่างของคุณคือสิ่งที่ฉันคิดว่าเป็น "การมีส่วนร่วมทางสังคม": ในทางคณิตศาสตร์แบบจำลองไม่ได้มีการบรรจุมากเกินไป แต่มีข้อควรพิจารณาทางสังคมภายนอกบางประการที่ทำให้ตัวทำนายไม่ทำงานได้ดี ตัวอย่างที่น่าสนใจยิ่งขึ้นคือการแข่งขัน Kaggle และชุดข้อมูลแบบเปิดต่างๆเช่น Boston Housing, MNIST และอื่น ๆ ... รูปแบบของตัวเองอาจไม่ overfitting (ในแง่ของความลำเอียง, ความแปรปรวน, ฯลฯ ... ) แต่มีจำนวนมาก ความรู้เกี่ยวกับปัญหาในชุมชนโดยทั่วไป (ผลลัพธ์จากทีมก่อนหน้าและเอกสารการวิจัย, การแบ่งปันเมล็ดสาธารณะ ฯลฯ ... ) ที่นำไปสู่การล้น
Skander H. - Reinstate Monica

1
@yters (ต่อ) นั่นเป็นเหตุผลว่าทำไมในทางทฤษฎีชุดข้อมูลการตรวจสอบความถูกต้องแยกต่างหาก (นอกเหนือจากชุดข้อมูลการทดสอบ) ควรยังคงอยู่ใน "ห้องนิรภัย" และไม่ได้ใช้จนกว่าจะมีการตรวจสอบขั้นสุดท้าย
Skander H. - Reinstate Monica

1
@CalvinGodfrey นี่เป็นตัวอย่างทางเทคนิคเพิ่มเติม สมมติว่าฉันมีชุดข้อมูลการจำแนกเลขฐานสองที่แบ่งเท่า ๆ กันระหว่างสองคลาสแล้วเพิ่มเสียงให้กับการจำแนกจากการแจกแจงเบอร์นูลลีที่ไม่สมดุลอย่างเป็นธรรมดังนั้นชุดข้อมูลจะเบ้ไปที่หนึ่งในคลาส ฉันแบ่งชุดข้อมูลออกเป็นรถไฟและการทดสอบและบรรลุความแม่นยำสูงทั้งสองส่วนเนื่องจากการกระจายที่ไม่สมดุล อย่างไรก็ตามความแม่นยำของแบบจำลองนั้นไม่สูงเท่าการจำแนกชุดข้อมูลจริงเนื่องจากตัวแบบเรียนรู้การแจกแจงแบบเบอนูลลี่ที่เบ้
yters
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.