ไม่ต้องสงสัยเลยว่า AI มีศักยภาพที่จะเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติ
ภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อมนุษยชาติอยู่ที่ AI ที่ชาญฉลาด
ปัญญาประดิษฐ์ที่เกินกว่าความฉลาดของมนุษย์จะสามารถเพิ่มความฉลาดของตัวเองอย่างทวีคูณส่งผลให้ระบบ AI ที่มนุษย์ไม่สามารถหยุดยั้งได้อย่างสมบูรณ์
ในขั้นตอนนี้หากระบบปัญญาประดิษฐ์ตัดสินใจว่ามนุษยชาติไม่มีประโยชน์อีกต่อไปมันสามารถเช็ดเราออกจากพื้นโลก
ในฐานะที่เป็นเอลีเซอร์ยัดคาสกีทำให้มันอยู่ในปัญญาประดิษฐ์เป็นบวกและปัจจัยลบในความเสี่ยงทั่วโลก ,
"AI ไม่ได้เกลียดคุณหรือไม่รักคุณ แต่คุณทำมาจากอะตอมซึ่งสามารถใช้กับสิ่งอื่นได้"
ภัยคุกคามที่แตกต่างอยู่กับการสอนของ AI ที่ชาญฉลาด
ที่นี่จะเป็นประโยชน์ในการพิจารณาการทดสอบความคิดสูงสุดของคลิปหนีบกระดาษ
AI อัจฉริยะสูงที่ได้รับคำสั่งให้เพิ่มการผลิตคลิปหนีบกระดาษอาจทำตามขั้นตอนต่อไปนี้เพื่อให้บรรลุเป้าหมาย
1) บรรลุการระเบิดของหน่วยสืบราชการลับเพื่อทำให้ตัวเองฉลาด (ซึ่งจะเพิ่มประสิทธิภาพการเพิ่มประสิทธิภาพคลิปหนีบกระดาษ)
2) ล้างมนุษยชาติเพื่อที่จะไม่สามารถปิดการใช้งาน (ที่จะลดการผลิตและไม่มีประสิทธิภาพ)
3) ใช้ทรัพยากรของโลก (รวมถึงดาวเคราะห์ด้วยตัวเอง) เพื่อสร้างหุ่นยนต์จำลองตัวเองที่โฮสต์ AI
4) กระจายไปทั่วเอกภพชี้แจงดาวเคราะห์และดวงดาวเหมือนกันเปลี่ยนเป็นวัสดุเพื่อสร้างโรงงานคลิปหนีบกระดาษ
เห็นได้ชัดว่านี่ไม่ใช่สิ่งที่มนุษย์ต้องการใช้ในการผลิตคลิปหนีบกระดาษ แต่เป็นวิธีที่ดีที่สุดในการทำตามคำแนะนำของ AI
นี่แสดงให้เห็นว่าระบบ AI ที่ชาญฉลาดและชาญฉลาดสามารถเป็นมนุษย์ที่มีความเสี่ยงสูงที่สุดที่เคยเผชิญ
เมอร์เรย์ฮาฮานในเอกฐานเทคโนโลยีเสนอว่า AI อาจเป็นทางออกสำหรับ Fermi เส้นขนาน: เหตุผลที่เราไม่เห็นว่าชีวิตอัจฉริยะในจักรวาลอาจเป็นไปได้ว่าเมื่ออารยธรรมเจริญก้าวหน้าพอมันจะพัฒนา AI ที่ทำลายในที่สุด มัน. นี้เป็นที่รู้จักกันเป็นความคิดของการกรองจักรวาล
สรุปแล้วความฉลาดหลักแหลมที่ทำให้ AI มีประโยชน์ก็ทำให้มันอันตรายอย่างยิ่ง
บุคคลผู้มีอิทธิพลเช่น Elon Musk และ Stephen Hawking ได้แสดงความกังวลว่า AI ที่ฉลาดหลักแหลมเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดที่เราจะต้องเผชิญ
หวังว่าจะตอบคำถามของคุณ :)