อาจมีภัยคุกคามที่มีอยู่ต่อมนุษย์เนื่องจาก AI หรือไม่?


9

เรากำลังทำการวิจัยใช้เวลาหลายชั่วโมงเพื่อหาวิธีที่เราสามารถสร้างซอฟต์แวร์ AI จริง (ตัวแทนที่ชาญฉลาด) ให้ทำงานได้ดีขึ้น นอกจากนี้เรายังพยายามใช้งานแอพพลิเคชั่นบางอย่างเช่นในธุรกิจสุขภาพและการศึกษาโดยใช้เทคโนโลยี AI

อย่างไรก็ตามจนถึงตอนนี้พวกเราส่วนใหญ่ไม่สนใจด้านปัญญาประดิษฐ์ "มืด" ตัวอย่างเช่นคนที่“ ผิดจรรยาบรรณ” สามารถซื้อโดรนราคาถูกนับพัน ๆ แขนพร้อมปืนและส่งพวกเขาออกสู่สาธารณะ นี่จะเป็นแอปพลิเคชั่น "ผิดจรรยาบรรณ" ของ AI

จะมี (ในอนาคต) ภัยคุกคามที่มีอยู่ต่อมนุษย์เนื่องจาก AI หรือไม่?


เทคโนโลยีใดมีศักยภาพที่จะเป็นภัยคุกคามต่อมนุษย์
Ankur

คำตอบ:


2

ฉันจะนิยามความฉลาดเป็นความสามารถในการทำนายอนาคต ดังนั้นหากมีคนฉลาดเขาสามารถทำนายอนาคตบางด้านและตัดสินใจว่าจะทำอย่างไรโดยขึ้นอยู่กับการคาดการณ์ของเขา ดังนั้นถ้าคนที่ "ฉลาด" ตัดสินใจที่จะทำร้ายคนอื่นเขาอาจมีประสิทธิภาพมากในเรื่องนี้ (เช่นฮิตเลอร์และสตาฟของเขา)

ปัญญาประดิษฐ์อาจมีประสิทธิภาพอย่างมากในการทำนายอนาคตที่ไม่แน่นอน และ IMHO นี้นำไปสู่สถานการณ์เชิงลบสองสถานการณ์:

  1. บางคนมีโปรแกรมเพื่อทำร้ายผู้คน ไม่ว่าจะโดยเจตนาหรือโดยเจตนา
  2. ปัญญาประดิษฐ์จะได้รับการออกแบบมาสำหรับการทำสิ่งที่ปลอดภัย แต่ในบางจุดเพื่อให้มีประสิทธิภาพมากขึ้นมันจะออกแบบตัวเองใหม่และอาจกำจัดอุปสรรคออกจากทางของมัน ดังนั้นหากมนุษย์กลายเป็นอุปสรรคพวกเขาจะถูกกำจัดอย่างรวดเร็วและมีประสิทธิภาพมาก

แน่นอนว่ายังมีสถานการณ์เชิงบวก แต่คุณไม่ได้ถามเกี่ยวกับพวกเขา

ฉันขอแนะนำให้อ่านโพสต์ที่ยอดเยี่ยมนี้เกี่ยวกับปัญญาประดิษฐ์ขั้นสูงและผลลัพธ์ที่เป็นไปได้ของการสร้างมัน: http://waitbutwhy.com/2015/01/artificial-intelligence-revolution-1.html


ขอบคุณสำหรับคำตอบของคุณที่สนใจในจุดที่สองนั้นด้านบวกมีการตีในย่อหน้าแรกหวังว่าคุณจะเห็น
quintumnia

4

ไม่ต้องสงสัยเลยว่า AI มีศักยภาพที่จะเป็นภัยคุกคามต่อการดำรงอยู่ของมนุษยชาติ

ภัยคุกคามที่ยิ่งใหญ่ที่สุดต่อมนุษยชาติอยู่ที่ AI ที่ชาญฉลาด

ปัญญาประดิษฐ์ที่เกินกว่าความฉลาดของมนุษย์จะสามารถเพิ่มความฉลาดของตัวเองอย่างทวีคูณส่งผลให้ระบบ AI ที่มนุษย์ไม่สามารถหยุดยั้งได้อย่างสมบูรณ์

ในขั้นตอนนี้หากระบบปัญญาประดิษฐ์ตัดสินใจว่ามนุษยชาติไม่มีประโยชน์อีกต่อไปมันสามารถเช็ดเราออกจากพื้นโลก

ในฐานะที่เป็นเอลีเซอร์ยัดคาสกีทำให้มันอยู่ในปัญญาประดิษฐ์เป็นบวกและปัจจัยลบในความเสี่ยงทั่วโลก ,

"AI ไม่ได้เกลียดคุณหรือไม่รักคุณ แต่คุณทำมาจากอะตอมซึ่งสามารถใช้กับสิ่งอื่นได้"

ภัยคุกคามที่แตกต่างอยู่กับการสอนของ AI ที่ชาญฉลาด

ที่นี่จะเป็นประโยชน์ในการพิจารณาการทดสอบความคิดสูงสุดของคลิปหนีบกระดาษ

AI อัจฉริยะสูงที่ได้รับคำสั่งให้เพิ่มการผลิตคลิปหนีบกระดาษอาจทำตามขั้นตอนต่อไปนี้เพื่อให้บรรลุเป้าหมาย

1) บรรลุการระเบิดของหน่วยสืบราชการลับเพื่อทำให้ตัวเองฉลาด (ซึ่งจะเพิ่มประสิทธิภาพการเพิ่มประสิทธิภาพคลิปหนีบกระดาษ)

2) ล้างมนุษยชาติเพื่อที่จะไม่สามารถปิดการใช้งาน (ที่จะลดการผลิตและไม่มีประสิทธิภาพ)

3) ใช้ทรัพยากรของโลก (รวมถึงดาวเคราะห์ด้วยตัวเอง) เพื่อสร้างหุ่นยนต์จำลองตัวเองที่โฮสต์ AI

4) กระจายไปทั่วเอกภพชี้แจงดาวเคราะห์และดวงดาวเหมือนกันเปลี่ยนเป็นวัสดุเพื่อสร้างโรงงานคลิปหนีบกระดาษ

เห็นได้ชัดว่านี่ไม่ใช่สิ่งที่มนุษย์ต้องการใช้ในการผลิตคลิปหนีบกระดาษ แต่เป็นวิธีที่ดีที่สุดในการทำตามคำแนะนำของ AI

นี่แสดงให้เห็นว่าระบบ AI ที่ชาญฉลาดและชาญฉลาดสามารถเป็นมนุษย์ที่มีความเสี่ยงสูงที่สุดที่เคยเผชิญ

เมอร์เรย์ฮาฮานในเอกฐานเทคโนโลยีเสนอว่า AI อาจเป็นทางออกสำหรับ Fermi เส้นขนาน: เหตุผลที่เราไม่เห็นว่าชีวิตอัจฉริยะในจักรวาลอาจเป็นไปได้ว่าเมื่ออารยธรรมเจริญก้าวหน้าพอมันจะพัฒนา AI ที่ทำลายในที่สุด มัน. นี้เป็นที่รู้จักกันเป็นความคิดของการกรองจักรวาล

สรุปแล้วความฉลาดหลักแหลมที่ทำให้ AI มีประโยชน์ก็ทำให้มันอันตรายอย่างยิ่ง

บุคคลผู้มีอิทธิพลเช่น Elon Musk และ Stephen Hawking ได้แสดงความกังวลว่า AI ที่ฉลาดหลักแหลมเป็นภัยคุกคามที่ยิ่งใหญ่ที่สุดที่เราจะต้องเผชิญ

หวังว่าจะตอบคำถามของคุณ :)

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.