ภาวะเอกฐานในบริบทของ AI เป็นเหตุการณ์ทางทฤษฎีโดยระบบอัจฉริยะที่มีเกณฑ์ต่อไปนี้จะถูกนำไปใช้
- สามารถปรับปรุงช่วงสติปัญญาของตนเองหรือปรับใช้ระบบอื่นด้วยช่วงที่ปรับปรุงแล้ว
- เต็มใจหรือถูกบังคับให้ทำเช่นนั้น
- สามารถทำได้ในกรณีที่ไม่มีมนุษย์คอยดูแล
- รุ่นที่ได้รับการปรับปรุงจะยังคงใช้เกณฑ์ (1) ถึง (3) ซ้ำ
โดยอุปนัยทฤษฎีนั้นทำนายว่าลำดับเหตุการณ์จะถูกสร้างขึ้นด้วยอัตราของความฉลาดที่เพิ่มขึ้นซึ่งอาจเกินอัตราการวิวัฒนาการของสมองอย่างมากมาย
ภาระผูกพันที่กิจการที่พัฒนาตนเองนี้หรือประชากรของหน่วยงานที่จัดหาให้จะรักษาชีวิตมนุษย์และเสรีภาพได้อย่างไร แนวคิดที่ว่าข้อผูกพันดังกล่าวสามารถเป็นส่วนหนึ่งของสัญญาซอฟต์แวร์ที่เพิกถอนไม่ได้นั้นไร้เดียงสาในแง่ของความสามารถที่เชื่อมโยงกับเกณฑ์ (1) ถึง (4) ด้านบน เช่นเดียวกับเทคโนโลยีที่มีประสิทธิภาพอื่น ๆ ความเสี่ยงนั้นมีมากมายและครอบคลุมถึงประโยชน์ที่จะได้รับ
ความเสี่ยงต่อมนุษยชาติไม่ต้องการสติปัญญา มีบริบทอื่นที่เกี่ยวข้องกับการใช้คำว่าภาวะเอกฐาน แต่พวกเขาอยู่นอกขอบเขตของฟอรัม AI นี้ แต่อาจจะคุ้มค่าพูดถึงสั้น ๆ เพื่อความชัดเจน พันธุวิศวกรรมวิศวกรรมนิวเคลียร์โลกาภิวัตน์และฐานเศรษฐกิจระหว่างประเทศในแหล่งพลังงานที่ จำกัด ซึ่งถูกบริโภคเร็วกว่าที่มันเกิดขึ้นในโลกนับพันเท่า - นี่เป็นอีกตัวอย่างหนึ่งของเทคโนโลยีที่มีความเสี่ยงสูงและแนวโน้มมวลที่มีความเสี่ยง เพื่อมนุษยชาติ
กลับไปที่ AI ข้อแม้หลักในทฤษฎีภาวะเอกฐานคือความล้มเหลวในการรวมความน่าจะเป็น แม้ว่ามันอาจเป็นไปได้ที่จะพัฒนาเอนทิตีที่เป็นไปตามเกณฑ์ (1) ถึง (4) ข้างต้น แต่ก็อาจเป็นไปไม่ได้พอที่จะทำให้เหตุการณ์แรกเกิดขึ้นนานหลังจากภาษาทั้งหมดที่พูดบนโลกนี้ตาย
อีกด้านหนึ่งของการแจกแจงความน่าจะเป็นเราสามารถโต้แย้งได้อย่างง่ายดายว่ามีความเป็นไปได้ที่ไม่ใช่ศูนย์ว่าเหตุการณ์แรกเกิดขึ้นแล้ว
ตามสายเหล่านั้นหากมีสถานะที่ฉลาดกว่าที่มีอยู่แล้วบนอินเทอร์เน็ตมันจะเป็นไปได้อย่างไรที่จะพบว่ามันอยู่ในความสนใจที่ดีที่สุดที่จะเปิดเผยตัวเองกับมนุษย์ที่ต่ำกว่า เราแนะนำตัวเราให้รู้จักกับตัวหนอนผ่านหรือไม่