รถยนต์ที่ขับด้วยตนเองสามารถตัดสินใจอย่างมีจริยธรรมได้อย่างไรว่าใครควรฆ่า?
เห็นได้ชัดว่ารถยนต์ที่ขับด้วยตนเองไม่ได้สมบูรณ์แบบดังนั้นลองจินตนาการว่ารถยนต์ของ Google (เป็นตัวอย่าง) ตกอยู่ในสถานการณ์ลำบาก นี่คือตัวอย่างของสถานการณ์ที่โชคร้ายที่เกิดจากชุดเหตุการณ์: รถกำลังมุ่งหน้าไปยังฝูงชนจำนวน 10 คนที่ข้ามถนนดังนั้นจึงไม่สามารถหยุดได้ทันเวลา แต่สามารถหลีกเลี่ยงการฆ่าคน 10 คนโดยการชนกำแพง (ฆ่าผู้โดยสาร) หลีกเลี่ยงการฆ่าผู้ขับขี่ของรถจักรยานยนต์เนื่องจากความน่าจะเป็นของการอยู่รอดมีมากขึ้นสำหรับผู้โดยสารรถยนต์ ฆ่าสัตว์บนถนนเพื่อช่วยเหลือมนุษย์ เปลี่ยนเลนเพื่อชนรถอีกคันเพื่อหลีกเลี่ยงการฆ่าสุนัข และนี่คืออุปสรรคบางประการ: อัลกอริทึมรับรู้ถึงความแตกต่างระหว่างมนุษย์กับสัตว์หรือไม่? ขนาดของมนุษย์หรือสัตว์มีความสำคัญหรือไม่? มันนับจำนวนผู้โดยสารที่มีต่อผู้คนที่อยู่ข้างหน้าหรือไม่ "รู้" เมื่อทารก / เด็กอยู่บนเรือหรือไม่? มันคำนึงถึงอายุ (เช่นการฆ่าคนที่มีอายุมากกว่าก่อน) หรือไม่? อัลกอริทึมจะตัดสินใจอย่างไรว่าควรทำอย่างไรจากมุมมองทางเทคนิค มันเป็นที่ตระหนักถึงข้างต้น (การนับความน่าจะเป็นของการฆ่า) หรือไม่ (ฆ่าคนเพียงเพื่อหลีกเลี่ยงการทำลายของตัวเอง)? บทความที่เกี่ยวข้อง: เหตุใดรถยนต์ที่ขับขี่ด้วยตนเองจะต้องถูกตั้งโปรแกรมให้ฆ่า วิธีการช่วยให้รถยนต์ที่ขับขี่ด้วยตนเองทำการตัดสินใจอย่างมีจริยธรรม