AI ไม่ได้ทำงานด้วยความสัมพันธ์กันทั้งหมดเครือข่ายความเชื่อแบบเบย์นั้นสร้างขึ้นจากความน่าจะเป็นที่ A เป็นสาเหตุของ B
ฉันกำลังทำงานกับระบบเพื่อประเมินประสิทธิภาพของนักเรียนตามคำถามตามผลงานที่ผ่านมา
ฉันไม่คิดว่าคุณต้องการสาเหตุสำหรับสิ่งนี้ ประสิทธิภาพที่ผ่านมาไม่ได้ทำให้ประสิทธิภาพปัจจุบัน การตอบคำถามต้นไม่ทำให้คำตอบสำหรับคำถามในภายหลัง
แต่จากมุมมองของการสร้างระบบเพื่อเลือกคำถามที่น่าจะเป็นระดับความยากที่เหมาะสมความแตกต่างนี้มีความสำคัญหรือไม่?
ไม่ไม่ใช่สำหรับตัวอย่างของคุณ ฉันคิดว่าความสัมพันธ์ (หรือการคาดการณ์อย่างง่าย) จะช่วยแก้ปัญหาของคุณได้เป็นอย่างดี มอบหมายคะแนนความยากลำบากให้กับคำถามแต่ละข้อจากนั้นป้อนคำถามให้กับนักเรียนในระดับที่ยากขึ้น (ซึ่งเป็นวิธีการสอบที่ทำงานได้มากที่สุด) และเมื่อนักเรียนเริ่มทำผิดพวกคุณสามารถไขปัญหาได้ นั่นเป็นอัลกอริทึมข้อเสนอแนะที่คล้ายกับการลดข้อผิดพลาดที่เกิดขึ้นกับเซลล์ประสาทใน perceptron หลายชั้น พื้นที่อินพุทที่ไม่สำคัญเช่นนี้กำลังตัดสินใจว่าคำถามที่ยากคืออะไร!
ตัวอย่างที่ดีกว่าของสาเหตุใน AI คือ:
รถของฉันช้าลง คันเร่งของฉันอยู่บนพื้น มีเสียงรบกวนไม่มาก มีไฟบนแผงหน้าปัด ความน่าจะเป็นที่ฉันหมดเชื้อเพลิงคืออะไร?
ในกรณีนี้น้ำมันหมดทำให้รถยนต์ชะลอตัวลง นี่เป็นปัญหาที่เครือข่าย Bayesian Belief แก้ได้อย่างแม่นยำ