AI จะคิดในภายหลังในขณะที่หลีกเลี่ยงตัวเลือก“ ที่ไม่ดีต่อจริยธรรม” หรือไม่?


13

ในเกมพีซีล่าสุดThe Turing Testนั้น AI ("TOM") ต้องการความช่วยเหลือจาก Ava ในการผ่านห้องไขปริศนา TOM บอกว่าเขาไม่สามารถไขปริศนาได้เพราะเขาไม่ได้รับอนุญาตให้ " คิดในแนวขวาง " โดยเฉพาะเขาบอกว่าเขาจะไม่คิดที่จะโยนกล่องผ่านหน้าต่างเพื่อแก้ปัญหาห้องแรก ผู้สร้างเรื่องราวของเขากลับกลายเป็นปิดความสามารถนั้นเพราะความคิดดังกล่าวสามารถก่อให้เกิดวิธีการแก้ปัญหา "จริยธรรมไม่ดี" เช่นการตัดแขนเพื่อออกจากแผ่นความดัน

ความสามารถในการแก้ปริศนาที่สร้างสรรค์ทั้งหมดจะต้องถูกลบออกจาก AI เพื่อให้ผลลัพธ์ของมันสมเหตุสมผลหรือเราจะได้รับประโยชน์จากการคิดนอกกรอบโดยไม่สูญเสียแขน

คำตอบ:


17

ไม่มีมีแต่ เราสามารถมีความคิดสร้างสรรค์ แต่การแก้ปัญหาด้านจริยธรรมหากระบบมีระบบจริยธรรมที่สมบูรณ์ แต่ความคิดสร้างสรรค์จะไม่ปลอดภัยโดยปริยาย

เราสามารถจำแนกวิธีการตัดสินใจของ AI ออกเป็นสองประเภท: นักคิดเชิงเปรียบเทียบและนักคิดนอกเรื่อง

นักคิดเชิง Interpolative เรียนรู้ที่จะจำแนกและเลียนแบบสิ่งที่พวกเขาเรียนรู้และไม่พยายามให้ผลลัพธ์ที่สมเหตุสมผลนอกโดเมนการฝึกฝน คุณสามารถคิดว่ามันเป็นการสอดแทรกระหว่างตัวอย่างการฝึกอบรมและการได้รับประโยชน์จากการรับประกันทางคณิตศาสตร์และข้อกำหนดทั้งหมดเป็นเทคนิคทางสถิติอื่น ๆ

นักคิดนอกเรื่องเรียนรู้ที่จะจัดการกับหลักการพื้นฐานซึ่งช่วยให้พวกเขารวมหลักการเหล่านั้นในวิธีที่ไม่ได้รับการพิจารณาก่อนหน้านี้ เขตข้อมูลที่เกี่ยวข้องสำหรับสัญชาตญาณที่นี่คือการเพิ่มประสิทธิภาพเชิงตัวเลขซึ่งตัวอย่างที่ง่ายที่สุดและมีชื่อเสียงที่สุดคือการเขียนโปรแกรมเชิงเส้นมากกว่าสาขาสถิติที่เกิดการเรียนรู้ของเครื่อง คุณสามารถคิดว่าพวกเขาเป็นการคาดการณ์ที่นอกเหนือจากตัวอย่างการฝึกอบรม (แน่นอนว่าหลายคนไม่ต้องการตัวอย่างการฝึกอบรมหรือใช้ตัวอย่างเหล่านั้นในการอนุมานหลักการพื้นฐาน)

คำมั่นสัญญาของนักคิดนอกระบบคือพวกเขาสามารถหาวิธีแก้ปัญหา 'ด้านข้าง' เหล่านี้ได้เร็วกว่าที่คนทั่วไปจะทำได้ ปัญหาของนักคิดนอกระบบเหล่านี้คือพวกเขาใช้หลักการพูดเท่านั้นไม่ใช่สิ่งที่ไม่ได้พูดที่อาจดูเหมือนชัดเจนเกินไปที่จะกล่าวถึง

คุณลักษณะของการแก้ไขปัญหาการปรับให้เหมาะสมที่สุดคือเวกเตอร์ฟีเจอร์มักจะ 'สุดขีด' ในบางกรณี ในการเขียนโปรแกรมเชิงเส้นอย่างน้อยหนึ่งจุดสุดยอดของพื้นที่การแก้ปัญหาที่เป็นไปได้จะดีที่สุดและวิธีการแก้ปัญหาอย่างง่ายเพื่อหาจุดสุดยอดที่เหมาะสม (ซึ่งเกือบจะเป็นไปไม่ได้โดยธรรมชาติของการเป็นจุดสุดยอด)

อีกตัวอย่างหนึ่งการแก้ปัญหาเชื้อเพลิงขั้นต่ำสำหรับการย้ายยานอวกาศจากตำแหน่งหนึ่งไปยังอีกตำแหน่งหนึ่งเรียกว่า ' bang-bang ' ซึ่งคุณจะเร่งยานให้เร็วที่สุดเท่าที่จะทำได้เมื่อเริ่มต้นและสิ้นสุดเส้นทางการเคลื่อนที่ .

ในขณะที่ความถูกต้องเมื่อระบบเข้าใจอย่างถูกต้อง (bang-bang นั้นเหมาะสมที่สุดสำหรับหลาย ๆ กรณี) นี่เป็นความหายนะเมื่อระบบเข้าใจอย่างไม่ถูกต้อง ตัวอย่างที่ฉันชอบที่นี่คือปัญหาอาหารของ Dantzig (การสนทนาเริ่มในหน้า 5 ของ pdf) ซึ่งเขาพยายามเพิ่มประสิทธิภาพอาหารของเขาโดยใช้คณิตศาสตร์ ภายใต้ข้อ จำกัด ชุดแรกของเขาเขาควรจะดื่มน้ำส้มสายชู 500 แกลลอนต่อวัน ภายใต้ที่สองของเขา 200 Bouillon ลูกบาศก์ ภายใต้ที่สามของเขารำสองปอนด์ การพิจารณาที่ทำให้ความคิดที่ไม่ดีเหล่านั้นเห็นได้ชัดไม่ได้ถูกนำเข้าสู่ระบบและระบบจึงแนะนำพวกเขาอย่างไร้เดียงสา

หากคุณสามารถเข้ารหัสความรู้และค่านิยมที่บุคคลใช้ในการตัดสินแผนเหล่านี้ใน AI ระบบการคาดการณ์มีความปลอดภัยเทียบเท่ากับบุคคลนั้น พวกเขาจะสามารถพิจารณาและปฏิเสธแผนสุดขั้วที่ไม่ถูกต้องและปล่อยให้คุณอยู่กับแผนสุดโต่งที่ถูกต้อง

แต่ถ้าคุณทำไม่ได้มันก็ไม่มีเหตุผลที่จะไม่สร้างผู้มีอำนาจตัดสินใจนอกเรื่อง นั่นคือแทนที่จะถามตัวเองว่า "ฉันจะบรรลุเป้าหมาย X ได้อย่างไร" มันถามตัวเองว่า "คนเราจะทำอะไรในสถานการณ์นี้" หลังอาจเลวร้ายยิ่งกว่าการบรรลุเป้าหมาย X แต่มีความเสี่ยงน้อยกว่าที่จะเสียสละเป้าหมายอื่น ๆ เพื่อบรรลุ X


2

จริยธรรมเกี่ยวข้องกับความสัมพันธ์ของความต้องการระหว่างสองฝ่ายขึ้นไป ดังที่แมทธิวเกรฟส์กล่าวว่าหาก AI ขาดบริบทของมนุษย์ที่เพียงพอ (เข้าใจความต้องการ) มันจะสร้างพฤติกรรมทางจริยธรรมที่ผิดปกติ

และบอกตามตรงว่าบางคนจะตัดแขนของคนอื่นแล้วเอาไปวางบนแผ่นความดัน แม้แต่สิ่งที่ดีที่สุดของเราก็ยังไม่สามารถเห็นอกเห็นใจต่อความต้องการของผู้อื่นด้วยความแม่นยำ 100% - ที่ดีที่สุดเราคาดเดา แล้วก็มีสถานการณ์ที่หายากที่ฉันอยากให้คุณตัดแขนออกและวางมันลงบนแผ่นความดันบางทีเพื่อช่วยคนที่คุณรัก

ถ้าเราสามารถทำให้สิ่งที่สามารถเห็นอกเห็นใจกับสิ่งที่มนุษย์อาจต้องอยู่ในสถานการณ์ใด ๆ โดยพลได้รับแล้วเราจะได้สร้างทั้ง A) เทียมมนุษย์ปัญญา (AHI) (ซึ่งอาจจะมากหรือน้อยทำผิดได้เหมือนมนุษย์) หรือ B) oracle ที่สามารถให้เหตุผลเกี่ยวกับความต้องการของมนุษย์ที่เป็นไปได้ทั้งหมดในเวลาที่เร็วกว่ามนุษย์ - ซึ่งในกรณีนี้คุณไม่จำเป็นต้องใช้ AI ที่มีสติเพราะความต้องการและการแก้ปัญหาทั้งหมดของมนุษย์ อาจเป็นเรื่องไร้สาระที่จะต้องพิจารณา


0

คุณอาจพิจารณาการเขียนโปรแกรมเป็นส่วนหนึ่งของการออกแบบจริยธรรมเช่นกัน AI จะปฏิบัติตามสิ่งที่ได้รับคำสั่งให้มีความสำคัญทางจริยธรรมหรือไม่ อาจ / ควรเป็นส่วนหนึ่งของพารามิเตอร์ที่ปลอมแปลงกระบวนการค้นหาวิธีแก้ไขซึ่งอาจทำให้สามารถแก้ไขและสร้างสรรค์ได้มากขึ้น

เราเข้าใจพื้นฐานของจริยธรรมในสถานการณ์ปกติ แต่ถ้าเราไม่สามารถคาดเดาได้ว่ามนุษย์คนใดจะทำงานในปริศนาที่มีจริยธรรมเราสามารถบังคับใช้สิ่งที่ AI ไม่ทำ

ตราบใดที่เราสามารถควบคุมกลไกที่ขับเคลื่อน AI เรามั่นใจว่ามีความรับผิดชอบในการฉีดความผิดพลาดทางจริยธรรม ปัญหาอยู่ที่การเรียนการสอนด้วยตนเองด้วยความสามารถในการแทนที่คำสั่ง (กฎหมาย CF Asimov)

วิธีที่ AI ใช้ในการสร้างสรรค์นั้นไม่เกี่ยวข้องในกรณีนี้


-1

สิ่งนี้ขึ้นอยู่กับความกว้างของการพิจารณา ตัวอย่างเช่นผลกระทบระยะกลางและระยะยาวของการคิดด้านข้างจะเป็นอย่างไร หุ่นยนต์สามารถตัดแขนสำหรับแผ่นความดันได้ แต่ก็หมายความว่าบุคคลนั้นไม่มีแขนข้อ จำกัด ในการใช้งานที่ดีที่สุดเพื่อให้บุคคลนั้นมีเลือดออกและตาย / ถูก จำกัด อย่างรุนแรงและบุคคลนั้น (และคนใน ทั่วไป) จะไม่ให้ความร่วมมือและพยายามกำจัดหุ่นยนต์ ผู้คนสามารถคิดในภายหลังได้เพราะพิจารณาสิ่งเหล่านี้ - จริยธรรมไม่ได้เป็นอะไรมากไปกว่าแนวทางที่ครอบคลุมการพิจารณาเหล่านี้ หุ่นยนต์ก็สามารถที่จะออกแบบมาเพื่อพิจารณาภายนอกเหล่านี้ได้

หากทุกอย่างล้มเหลว

กฎของหุ่นยนต์ของอาซิมอฟ: (0 หุ่นยนต์อาจไม่เป็นอันตรายต่อมนุษยชาติหรือโดยการไม่อนุญาตให้มนุษยชาติทำอันตราย) 1. หุ่นยนต์อาจไม่ทำร้ายมนุษย์หรือผ่านความเกียจคร้านอนุญาตให้มนุษย์เข้ามา อันตราย 2. หุ่นยนต์จะต้องปฏิบัติตามคำสั่งของมนุษย์ยกเว้นว่าคำสั่งดังกล่าวจะขัดแย้งกับกฎหมายฉบับแรก 3. หุ่นยนต์จะต้องปกป้องการมีอยู่ของตนเองตราบใดที่การป้องกันดังกล่าวไม่ขัดแย้งกับกฏแรกหรือข้อที่สอง

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.