คำถามติดแท็ก ethics

13
รถยนต์ที่ขับด้วยตนเองสามารถตัดสินใจอย่างมีจริยธรรมได้อย่างไรว่าใครควรฆ่า?
เห็นได้ชัดว่ารถยนต์ที่ขับด้วยตนเองไม่ได้สมบูรณ์แบบดังนั้นลองจินตนาการว่ารถยนต์ของ Google (เป็นตัวอย่าง) ตกอยู่ในสถานการณ์ลำบาก นี่คือตัวอย่างของสถานการณ์ที่โชคร้ายที่เกิดจากชุดเหตุการณ์: รถกำลังมุ่งหน้าไปยังฝูงชนจำนวน 10 คนที่ข้ามถนนดังนั้นจึงไม่สามารถหยุดได้ทันเวลา แต่สามารถหลีกเลี่ยงการฆ่าคน 10 คนโดยการชนกำแพง (ฆ่าผู้โดยสาร) หลีกเลี่ยงการฆ่าผู้ขับขี่ของรถจักรยานยนต์เนื่องจากความน่าจะเป็นของการอยู่รอดมีมากขึ้นสำหรับผู้โดยสารรถยนต์ ฆ่าสัตว์บนถนนเพื่อช่วยเหลือมนุษย์ เปลี่ยนเลนเพื่อชนรถอีกคันเพื่อหลีกเลี่ยงการฆ่าสุนัข และนี่คืออุปสรรคบางประการ: อัลกอริทึมรับรู้ถึงความแตกต่างระหว่างมนุษย์กับสัตว์หรือไม่? ขนาดของมนุษย์หรือสัตว์มีความสำคัญหรือไม่? มันนับจำนวนผู้โดยสารที่มีต่อผู้คนที่อยู่ข้างหน้าหรือไม่ "รู้" เมื่อทารก / เด็กอยู่บนเรือหรือไม่? มันคำนึงถึงอายุ (เช่นการฆ่าคนที่มีอายุมากกว่าก่อน) หรือไม่? อัลกอริทึมจะตัดสินใจอย่างไรว่าควรทำอย่างไรจากมุมมองทางเทคนิค มันเป็นที่ตระหนักถึงข้างต้น (การนับความน่าจะเป็นของการฆ่า) หรือไม่ (ฆ่าคนเพียงเพื่อหลีกเลี่ยงการทำลายของตัวเอง)? บทความที่เกี่ยวข้อง: เหตุใดรถยนต์ที่ขับขี่ด้วยตนเองจะต้องถูกตั้งโปรแกรมให้ฆ่า วิธีการช่วยให้รถยนต์ที่ขับขี่ด้วยตนเองทำการตัดสินใจอย่างมีจริยธรรม

5
เหตุใดจริยธรรมจึงไม่รวมเข้ากับระบบ AI ปัจจุบันมากกว่า
ฉันเป็นนักศึกษาปริญญาเอกสาขาวิทยาศาสตร์คอมพิวเตอร์และในขณะนี้กำลังสร้างภาพรวมที่ทันสมัยในการใช้งานที่กระทำใน Machine Ethics (สาขาสหวิทยาการผสมผสานปรัชญาและ AI ซึ่งมีลักษณะที่การสร้างโปรแกรมหรือตัวแทนด้านจริยธรรมที่ชัดเจน) ดูเหมือนว่าสนามส่วนใหญ่จะมีข้อโต้แย้งเชิงทฤษฎีและมีการใช้งานค่อนข้างน้อยแม้ว่าจะมีคนจำนวนมากที่มีภูมิหลังทางเทคนิคในสาขานี้ ฉันเข้าใจว่าเนื่องจากมีส่วนเกี่ยวข้องกับจริยธรรมจึงไม่มีความจริงใด ๆ และเนื่องจากเป็นส่วนหนึ่งของปรัชญาที่เราจะเสียไปในการพิจารณาว่าควรนำจริยธรรมประเภทใดมาใช้และวิธีนี้ทำได้ดีที่สุด อย่างไรก็ตามในด้านวิทยาศาสตร์คอมพิวเตอร์เป็นเรื่องปกติที่จะลองใช้งานง่าย ๆ เพื่อแสดงความเป็นไปได้หรือข้อ จำกัด ของวิธีการของคุณ อะไรคือเหตุผลที่เป็นไปได้ที่มีการดำเนินการเพียงเล็กน้อยในการใช้จริยธรรมอย่างชัดเจนใน AI และทำการทดลองกับมัน?

3
มนุษย์สามารถทำร้าย AI หรือจิตสำนึกหรือไม่?
หากมีสติ AI เป็นไปได้มันจะเป็นไปได้สำหรับคนที่รู้ว่าพวกเขากำลังทำอะไรเพื่อทรมาน (หรือบาดเจ็บ) AI? สามารถหลีกเลี่ยงได้ไหม อย่างไร? คำถามนี้เกี่ยวกับ AI ที่ใช้คอมพิวเตอร์ไม่ใช่หุ่นยนต์ซึ่งมีจิตสำนึกเหมือนคน (นี่เป็นข้อสันนิษฐานของคำถาม) คำถามสงสัยว่าอาชญากรรมที่ยากที่จะติดตามว่าเป็นการดาวน์โหลดที่ผิดกฎหมาย แต่มีจริยธรรมที่แย่กว่านั้นสามารถป้องกันได้ โปรดทราบว่าแม้คนส่วนใหญ่จะเป็นคนดีและเห็นอกเห็นใจหุ่นยนต์ แต่ก็มีคนเลวอยู่เสมอและการพึ่งพามโนธรรมทั่วไปจะไม่ทำงาน

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.