กฎหมายของอาซิมอฟมีข้อบกพร่องจากการออกแบบหรือเป็นไปได้ในทางปฏิบัติหรือไม่?


19

Isaac Asimov มีชื่อเสียง กฎสามข้อของวิทยาการหุ่นยนต์ที่ต้นกำเนิดในบริบทของนิยายวิทยาศาสตร์ของ Asimov ในเรื่องเหล่านั้นกฎหมายทั้งสามใช้เป็นมาตรการความปลอดภัยเพื่อหลีกเลี่ยงสถานการณ์ที่ไม่เหมาะสมหรือไม่เหมาะสมจากการระเบิดในความเสียหาย

บ่อยกว่าเรื่องเล่าของ Asimov จะหาวิธีที่จะทำลายพวกเขานำนักเขียนที่จะทำการปรับเปลี่ยนหลายกฎหมายตัวเอง ตัวอย่างเช่นในบางเรื่องของเขาเขาได้แก้ไขกฏหมายที่หนึ่งเพิ่มกฏที่สี่ (หรือซีโรท)หรือแม้กระทั่งเอาออกกฎหมายทั้งหมดโดยสิ้นเชิง

อย่างไรก็ตามมันเป็นเรื่องง่ายที่จะโต้แย้งว่าในวัฒนธรรมสมัยนิยมและแม้แต่ในด้านการวิจัยของ AI เองกฎหมายของหุ่นยนต์นั้นค่อนข้างจริงจัง การเพิกเฉยต่อปัญหาด้านการตีความกฎหมายที่แตกต่างกันเป็นอัตนัยและร่วมกัน แต่เพียงผู้เดียวมีข้อโต้แย้งใด ๆ ที่พิสูจน์ให้เห็นว่ากฎหมายมีข้อบกพร่องในตัวเองจากการออกแบบของพวกเขาหรือไม่หรือแข็งแรงเพียงพอสำหรับการใช้ในความเป็นจริง? ในทำนองเดียวกันมีชุดฮิวริสติกการรักษาความปลอดภัยที่ดีขึ้นและเข้มงวดขึ้นซึ่งถูกออกแบบมาเพื่อจุดประสงค์หรือไม่


ระวัง Hellscape Killbot! xkcd.com/1613
NietzscheanAI

เราไม่ลืมความเป็นไปได้นี้: xkcd.com/1450
dynrepsys

กฎหมายของ Asimov เป็นเพียงความพยายามเพียงเล็กน้อยในการเริ่มการสนทนา สำหรับการสนทนาที่ละเอียดยิ่งขึ้นให้อ่าน "Superintelligence" โดย Nick Bostrom - ซึ่งครบถ้วนสมบูรณ์ตามที่ได้รับจากความรู้และความเข้าใจในปัจจุบัน
Florin Andrei

คำตอบ:


12

กฎหมายของอาซิมอฟยังไม่แข็งแกร่งพอที่จะนำไปใช้ในทางปฏิบัติ จุดแข็งไม่ได้เป็นสิ่งที่ต้องพิจารณาอีกต่อไปเมื่อพิจารณาว่าเนื่องจากพวกเขาเขียนด้วยคำภาษาอังกฤษก่อนอื่นจะต้องตีความอย่างเป็นส่วนตัวว่ามีความหมาย คุณสามารถค้นหาการสนทนาที่ดีของเรื่องนี้ที่นี่

หากต้องการถอดข้อความที่ตัดตอนมา:

คุณจะกำหนดสิ่งเหล่านี้ได้อย่างไร คุณจะกำหนด "มนุษย์" ได้อย่างไรโดยไม่ต้องยืนหยัดในเกือบทุกประเด็น และถ้า "มนุษย์" ไม่ยากพอคุณต้องนิยาม "อันตราย" และคุณมีปัญหาเดิมอีกครั้ง คำจำกัดความที่มั่นคงอย่างชัดเจนเกือบทั้งหมดที่คุณให้ไว้สำหรับคำเหล่านั้น - ที่ไม่ต้องพึ่งพาสัญชาตญาณของมนุษย์ - ส่งผลให้เกิดปรัชญาแปลก ๆ แปลก ๆ นำไปสู่ ​​AI ของคุณทำสิ่งที่คุณไม่ต้องการให้ทำ

ใคร ๆ ก็จินตนาการได้ว่าอาซิมอฟฉลาดพอที่จะรู้เรื่องนี้และสนใจเรื่องการเขียนมากกว่าการออกแบบโปรโตคอลควบคุม AI ในโลกแห่งความเป็นจริง

ในนวนิยายNeuromancerมันก็บอกว่าอาจจะทำหน้าที่เป็น AIs ตรวจสอบซึ่งกันและกัน ภาวะเอกฐานที่ใกล้เข้ามาของ Ray Kurzweilภาวะเอกหรือความเป็นไปได้ของ AGIS ที่มีความฉลาดสูงอาจจะไม่ทำให้มนุษย์มีความเป็นไปได้ที่จะควบคุม AIs ได้เลย

เป็นที่น่าสังเกตว่า Eliezer Yudkowsky และคนอื่น ๆทำการทดลองที่ Yudkowsky เล่นบทบาท AI อัจฉริยะที่มีความสามารถในการพูด แต่ไม่มีการเชื่อมต่ออื่นนอกเหนือจากกล่องล็อค ผู้ท้าทายถูกมอบหมายให้เพียงแค่เก็บ AI ไว้ในค่าใช้จ่ายทั้งหมด Yudkowsky หนีทั้งสองครั้ง


คุณรู้หรือไม่ว่าการถอดความการทดลอง Yudkowsky ใด ๆ ที่เคยถูกปล่อยออกมา? ลิงก์ที่คุณให้ (และการแลกเปลี่ยนอีเมลจากนั้นลิงก์ไปยัง) จะไม่ปรากฏขึ้นเพื่อให้แสดง
NietzscheanAI

@ user217281728 ไม่ฉันมองหามัน แต่ดูเหมือนว่าเขากำลังรักษามันอยู่นั่นคือกลยุทธ์ของเขาภายใต้ wraps เพื่อรักษาความเป็นไปได้ที่จะทำมันอีกครั้ง ฉันมีความคิดบางอย่างเกี่ยวกับสิ่งที่เขาพูดและทำไมฉันถึงคิดว่าฉันยินดีที่จะแบ่งปันถ้าคุณเป็นฉัน
dynrepsys

ฉันทำไปแล้ว
NietzscheanAI

ฉันอยู่ภายใต้ความประทับใจที่อาซิมอฟฉลาดพอที่จะรู้เรื่องนี้ แต่ประเด็นคือกฎง่าย ๆ ไม่ทำงาน การชี้ตัวอย่างเชิงลบ ("คุณไม่สามารถบอกได้ว่าไม่เป็นอันตรายต่อผู้คนที่ไม่ได้ผล") เป็นงานควบคุม AI ที่มีประโยชน์ในโลกแห่งความเป็นจริงในสิทธิของตนเอง
Matthew Graves

2

อาซิมอฟทำกฎหมายทั้งสามฉบับโดยเฉพาะเพื่อพิสูจน์ว่าไม่มีกฎหมายสามฉบับที่เพียงพอไม่ว่าพวกเขาจะดูสมเหตุสมผลในตอนแรกก็ตาม ฉันรู้จักคนที่รู้จักผู้ชายคนนี้และเขายืนยันเรื่องนี้


2
"ฉันรู้จักคนที่รู้จักผู้ชายคนนั้น" ... คุณไม่มีแหล่งข้อมูลที่น่าเชื่อถือมากกว่านี้อีกหรือเปล่า? ฉันไม่ได้สงสัยคำตอบของคุณ แต่ควรมีคำพูดที่เหมาะสมในเรื่องนี้อยู่แล้ว
3442

เขาชื่อเบ็นวิลเลียมส์ นี่คือโพสต์ของ Google Plus ที่เขาอธิบายความคิดเห็นของเขาเกี่ยวกับ Asimov และ The Three Laws: plus.google.com/+JohnNewmanIII/posts/HeTnPdhaY9p
Doxosophoi

0

พิจารณากฎข้อแรกของหุ่นยนต์ของอาซิมอฟ:

หุ่นยนต์ไม่อาจทำร้ายมนุษย์หรือปล่อยให้มนุษย์เข้ามาทำร้าย

กฎหมายนั้นเป็นปัญหาอยู่แล้วเมื่อคำนึงถึงรถยนต์ที่ขับขี่ด้วยตนเอง

คุณถามคำถามอะไร ดีคุณอาจจะคุ้นเคยกับการทดลองทางความคิดคลาสสิกในจริยธรรมที่รู้จักกันเป็นปัญหารถเข็น รูปแบบทั่วไปของปัญหาคือ:

รถเข็นมุ่งตรงไปที่พวกเขา คุณกำลังยืนอยู่ไกลออกไปในลานรถไฟถัดจากคันโยก หากคุณดึงคันโยกนี้รถเข็นจะเปลี่ยนไปใช้แทร็คชุดอื่น อย่างไรก็ตามคุณสังเกตเห็นว่ามีคนหนึ่งอยู่ในเส้นทางด้านข้าง คุณมีสองทางเลือก: (1) ไม่ทำอะไรเลยและรถเข็นก็ฆ่าคนทั้งห้าในเส้นทางหลัก (2) ดึงคันโยกเบี่ยงรถเข็นไปยังรางด้านข้างซึ่งมันจะฆ่าคนคนหนึ่ง ตัวเลือกใดที่ถูกต้อง

แหล่งที่มา: Wikipedia

รถยนต์ที่ขับเคลื่อนด้วยตนเองจะต้องใช้รูปแบบชีวิตจริงกับปัญหารถเข็นซึ่งโดยทั่วไปหมายความว่า รถตัวเองขับรถจะต้องมีโปรแกรมที่จะฆ่ามนุษย์

แน่นอนไม่ได้หมายความว่าหุ่นยนต์ทั้งหมดจะต้องถูกตั้งโปรแกรมให้ฆ่า แต่รถที่ขับเคลื่อนด้วยตนเองเป็นตัวอย่างที่ดีของหุ่นยนต์ประเภทหนึ่งที่จะ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.