ไม่มีมีแต่ เราสามารถมีความคิดสร้างสรรค์ แต่การแก้ปัญหาด้านจริยธรรมหากระบบมีระบบจริยธรรมที่สมบูรณ์ แต่ความคิดสร้างสรรค์จะไม่ปลอดภัยโดยปริยาย
เราสามารถจำแนกวิธีการตัดสินใจของ AI ออกเป็นสองประเภท: นักคิดเชิงเปรียบเทียบและนักคิดนอกเรื่อง
นักคิดเชิง Interpolative เรียนรู้ที่จะจำแนกและเลียนแบบสิ่งที่พวกเขาเรียนรู้และไม่พยายามให้ผลลัพธ์ที่สมเหตุสมผลนอกโดเมนการฝึกฝน คุณสามารถคิดว่ามันเป็นการสอดแทรกระหว่างตัวอย่างการฝึกอบรมและการได้รับประโยชน์จากการรับประกันทางคณิตศาสตร์และข้อกำหนดทั้งหมดเป็นเทคนิคทางสถิติอื่น ๆ
นักคิดนอกเรื่องเรียนรู้ที่จะจัดการกับหลักการพื้นฐานซึ่งช่วยให้พวกเขารวมหลักการเหล่านั้นในวิธีที่ไม่ได้รับการพิจารณาก่อนหน้านี้ เขตข้อมูลที่เกี่ยวข้องสำหรับสัญชาตญาณที่นี่คือการเพิ่มประสิทธิภาพเชิงตัวเลขซึ่งตัวอย่างที่ง่ายที่สุดและมีชื่อเสียงที่สุดคือการเขียนโปรแกรมเชิงเส้นมากกว่าสาขาสถิติที่เกิดการเรียนรู้ของเครื่อง คุณสามารถคิดว่าพวกเขาเป็นการคาดการณ์ที่นอกเหนือจากตัวอย่างการฝึกอบรม (แน่นอนว่าหลายคนไม่ต้องการตัวอย่างการฝึกอบรมหรือใช้ตัวอย่างเหล่านั้นในการอนุมานหลักการพื้นฐาน)
คำมั่นสัญญาของนักคิดนอกระบบคือพวกเขาสามารถหาวิธีแก้ปัญหา 'ด้านข้าง' เหล่านี้ได้เร็วกว่าที่คนทั่วไปจะทำได้ ปัญหาของนักคิดนอกระบบเหล่านี้คือพวกเขาใช้หลักการพูดเท่านั้นไม่ใช่สิ่งที่ไม่ได้พูดที่อาจดูเหมือนชัดเจนเกินไปที่จะกล่าวถึง
คุณลักษณะของการแก้ไขปัญหาการปรับให้เหมาะสมที่สุดคือเวกเตอร์ฟีเจอร์มักจะ 'สุดขีด' ในบางกรณี ในการเขียนโปรแกรมเชิงเส้นอย่างน้อยหนึ่งจุดสุดยอดของพื้นที่การแก้ปัญหาที่เป็นไปได้จะดีที่สุดและวิธีการแก้ปัญหาอย่างง่ายเพื่อหาจุดสุดยอดที่เหมาะสม (ซึ่งเกือบจะเป็นไปไม่ได้โดยธรรมชาติของการเป็นจุดสุดยอด)
อีกตัวอย่างหนึ่งการแก้ปัญหาเชื้อเพลิงขั้นต่ำสำหรับการย้ายยานอวกาศจากตำแหน่งหนึ่งไปยังอีกตำแหน่งหนึ่งเรียกว่า ' bang-bang ' ซึ่งคุณจะเร่งยานให้เร็วที่สุดเท่าที่จะทำได้เมื่อเริ่มต้นและสิ้นสุดเส้นทางการเคลื่อนที่ .
ในขณะที่ความถูกต้องเมื่อระบบเข้าใจอย่างถูกต้อง (bang-bang นั้นเหมาะสมที่สุดสำหรับหลาย ๆ กรณี) นี่เป็นความหายนะเมื่อระบบเข้าใจอย่างไม่ถูกต้อง ตัวอย่างที่ฉันชอบที่นี่คือปัญหาอาหารของ Dantzig (การสนทนาเริ่มในหน้า 5 ของ pdf) ซึ่งเขาพยายามเพิ่มประสิทธิภาพอาหารของเขาโดยใช้คณิตศาสตร์ ภายใต้ข้อ จำกัด ชุดแรกของเขาเขาควรจะดื่มน้ำส้มสายชู 500 แกลลอนต่อวัน ภายใต้ที่สองของเขา 200 Bouillon ลูกบาศก์ ภายใต้ที่สามของเขารำสองปอนด์ การพิจารณาที่ทำให้ความคิดที่ไม่ดีเหล่านั้นเห็นได้ชัดไม่ได้ถูกนำเข้าสู่ระบบและระบบจึงแนะนำพวกเขาอย่างไร้เดียงสา
หากคุณสามารถเข้ารหัสความรู้และค่านิยมที่บุคคลใช้ในการตัดสินแผนเหล่านี้ใน AI ระบบการคาดการณ์มีความปลอดภัยเทียบเท่ากับบุคคลนั้น พวกเขาจะสามารถพิจารณาและปฏิเสธแผนสุดขั้วที่ไม่ถูกต้องและปล่อยให้คุณอยู่กับแผนสุดโต่งที่ถูกต้อง
แต่ถ้าคุณทำไม่ได้มันก็ไม่มีเหตุผลที่จะไม่สร้างผู้มีอำนาจตัดสินใจนอกเรื่อง นั่นคือแทนที่จะถามตัวเองว่า "ฉันจะบรรลุเป้าหมาย X ได้อย่างไร" มันถามตัวเองว่า "คนเราจะทำอะไรในสถานการณ์นี้" หลังอาจเลวร้ายยิ่งกว่าการบรรลุเป้าหมาย X แต่มีความเสี่ยงน้อยกว่าที่จะเสียสละเป้าหมายอื่น ๆ เพื่อบรรลุ X