อันที่จริงแล้วมันค่อนข้างง่าย: ตัวแยกประเภทของเบย์เลือกคลาสที่มีความน่าจะเป็นหลังเกิดขึ้นมากที่สุด(เรียกว่าการประมาณค่าสูงสุดหลัง ) 0-1 สูญเสียการทำงาน penalizes จำแนกคือมันกำหนดการสูญเสียที่มีขนาดเล็กที่สุดเพื่อแก้ปัญหาที่มีจำนวนมากที่สุดของการจำแนกประเภทที่ถูกต้อง ดังนั้นในทั้งสองกรณีเรากำลังพูดถึงการประเมินโหมด เรียกใช้โหมดนั้นว่าเป็นค่าที่พบได้บ่อยที่สุดในชุดข้อมูลหรือค่าที่เป็นไปได้มากที่สุดดังนั้นทั้งการเพิ่มความน่าจะเป็นด้านหลังและการลดความสูญเสีย 0-1 จะนำไปสู่การประมาณค่าโหมด
หากคุณต้องการหลักฐานที่เป็นทางการจะได้รับในบทความทฤษฎีการตัดสินใจเบื้องต้นแบบเบย์โดย Angela J. Yu:
ฟังก์ชันการสูญเสียไบนารี 0-1 มีแบบฟอร์มต่อไปนี้:
lx(s^,s∗)=1−δs^s∗={10ifs^≠s∗otherwise
δ
Lx(s^)=∑s∗lx(s^,s∗)P(s=s∗∣x)=∑s∗(1−δs^s∗)P(s=s∗∣x)=∑s∗P(s=s∗∣x)ds∗−∑s∗δs^s∗P(s=s∗∣x)=1−P(s=s∗∣x)
นี่เป็นเรื่องจริงสำหรับการประมาณค่าด้านหลังโดยทั่วไป ดังนั้นถ้าคุณรู้ว่าการกระจายหลังแล้วสมมติ 0-1 สูญเสียที่เหมาะสมที่สุดกฎการจัดหมวดหมู่คือการใช้โหมดของการกระจายหลังที่เราเรียกสิ่งนี้ว่าดีที่สุด Bayes ลักษณนาม ในชีวิตจริงเรามักจะไม่รู้จักการกระจายของหลัง แต่เราประมาณไว้ ลักษณนามไร้เดียงสา Bayesประมาณลักษณนามที่ดีที่สุดโดยดูจากการกระจายเชิงประจักษ์และโดยการสมมติความเป็นอิสระของตัวทำนาย ดังนั้นตัวจําแนกเบส์ที่ไร้เดียงสาจึงไม่ได้ดีที่สุด แต่ก็ใกล้เคียงกับทางออกที่ดีที่สุด ในคำถามของคุณคุณดูสับสนทั้งสองอย่าง