มีความเหมาะสมที่จะใช้กฎการให้คะแนนที่ไม่เหมาะสมเมื่อมีวัตถุประสงค์เพื่อการคาดการณ์จริง ๆ แต่ไม่ใช่การอนุมาน ฉันไม่สนใจหรอกว่าผู้ทำนายคนอื่นจะโกงหรือไม่เมื่อฉันเป็นคนที่จะทำการพยากรณ์
กฎการให้คะแนนที่เหมาะสมช่วยให้มั่นใจว่าในระหว่างกระบวนการประเมินแบบจำลองจะเข้าสู่กระบวนการสร้างข้อมูลจริง (DGP) สิ่งนี้ฟังดูมีแนวโน้มเพราะเมื่อเราเข้าใกล้ DGP จริงเราก็จะทำได้ดีในแง่ของการพยากรณ์ภายใต้ฟังก์ชั่นการสูญเสียใด ๆ สิ่งที่ดักจับคือส่วนใหญ่เวลา (จริง ๆ แล้วในความเป็นจริงเกือบทุกครั้ง) พื้นที่การค้นหาแบบจำลองของเราไม่มี DGP ที่แท้จริง เราใกล้เคียงกับ DGP จริงด้วยรูปแบบการทำงานบางอย่างที่เราเสนอ
ในการตั้งค่าที่สมจริงกว่านี้หากงานการคาดการณ์ของเราง่ายกว่าที่จะเข้าใจความหนาแน่นทั้งหมดของ DGP ที่แท้จริงเราอาจทำได้ดีกว่าจริง ๆ นี่คือความจริงโดยเฉพาะอย่างยิ่งสำหรับการจัดหมวดหมู่ ตัวอย่างเช่น DGP จริงอาจมีความซับซ้อนมาก แต่งานการจัดหมวดหมู่นั้นง่ายมาก
Yaroslav Bulatov ได้ให้ตัวอย่างต่อไปนี้ในบล็อกของเขา:
http://yaroslavvb.blogspot.ro/2007/06/log-loss-or-hinge-loss.html
ตามที่คุณเห็นด้านล่างความหนาแน่นที่แท้จริงคือ wiggly แต่มันง่ายมากที่จะสร้างลักษณนามเพื่อแยกข้อมูลที่สร้างโดยสิ่งนี้ออกเป็นสองคลาส เพียงแค่ถ้าเอาท์พุทคลาส 1 และถ้าเอาต์พุตคลาส 2x ≥ 0x < 0
แทนที่จะจับคู่ความหนาแน่นที่แน่นอนด้านบนเราขอเสนอแบบจำลองน้ำมันดิบด้านล่างซึ่งค่อนข้างไกลจาก DGP จริง อย่างไรก็ตามมันจัดประเภทที่สมบูรณ์แบบ พบได้โดยใช้การสูญเสียบานพับซึ่งไม่เหมาะสม
ในทางกลับกันถ้าคุณตัดสินใจที่จะหา DGP ที่แท้จริงพร้อมกับบันทึกการสูญเสีย (ซึ่งเหมาะสม) จากนั้นคุณเริ่มปรับฟังก์ชั่นบางอย่างเนื่องจากคุณไม่ทราบว่าแบบฟอร์มการทำงานที่แน่นอนที่คุณต้องการมาก่อน แต่เมื่อคุณพยายามจับคู่ให้หนักขึ้นคุณจะเริ่มคิดสิ่งต่าง ๆ
โปรดทราบว่าในทั้งสองกรณีเราใช้รูปแบบการทำงานเดียวกัน ในกรณีการสูญเสียที่ไม่เหมาะสมมันจะเสื่อมสภาพลงในฟังก์ชั่นขั้นตอนซึ่งการจำแนกประเภทก็สมบูรณ์แบบ ในกรณีที่เหมาะสมมันก็บ้าดีเดือดพยายามที่จะตอบสนองทุกความหนาแน่น
โดยทั่วไปเราไม่จำเป็นต้องบรรลุโมเดลจริงเสมอไปเพื่อให้ได้การคาดการณ์ที่แม่นยำ หรือบางครั้งเราไม่จำเป็นต้องทำดีกับความหนาแน่นทั้งหมด แต่จะดีมากในบางส่วนเท่านั้น