ปัญหาการหยุดชะงักของปัญญาประดิษฐ์จะมีข้อ จำกัด อะไรบ้าง?


คำตอบ:


9

ปัญหาการหยุดชะงักหมายถึงการ จำกัด การรับรู้ของมนุษย์หรือไม่?

ใช่แน่นอน - มีชิ้นส่วนของรหัสที่มนุษย์สามารถตรวจสอบได้และไม่แน่ใจว่าจะหยุดในเวลา จำกัด หรือไม่ (แน่นอนมีบางส่วนของรหัสที่มนุษย์สามารถดูและพูดว่า "ใช่" หรือ "ไม่" แน่นอน แต่เรากำลังพูดถึงคนที่ค่อนข้างยากที่จะวิเคราะห์)

ปัญหาการหยุดพักหมายความว่ามีการวิเคราะห์รหัสหลายประเภทที่คอมพิวเตอร์ไม่สามารถทำได้เพราะเป็นไปไม่ได้ทางคณิตศาสตร์ แต่ขอบเขตของความเป็นไปได้นั้นยังคงมีขนาดใหญ่พอที่จะอนุญาตให้มีปัญญาประดิษฐ์ที่แข็งแกร่ง (ในแง่ของรหัสที่สามารถเข้าใจตัวเองดีพอที่จะปรับปรุงตัวเอง)


ปัญหาการหยุดทำงานหมายความว่าไม่มีวิธีการเดียว (จำกัด ) สามารถตัดสินใจได้ว่าโปรแกรมใดจะหยุดในเวลา จำกัด ไม่ได้หมายความว่ามีปัญหาที่ไม่สามารถแก้ไขได้ (ซึ่งแน่นอนอยู่ แต่สาเหตุมักแตกต่างกัน)
kakaz

12

ปัญหาการหยุดชะงักเป็นตัวอย่างของปรากฏการณ์ทั่วไปที่เรียกว่าUndecidabilityซึ่งแสดงให้เห็นว่ามีปัญหาที่เครื่องจักรทัวริงไม่สามารถแก้ไขได้ในเวลาที่ จำกัด ลองพิจารณาลักษณะทั่วไปที่ว่ามันเป็นที่ตัดสินไม่ได้ไม่ว่าจะเป็นทัวริงเครื่องตอบสนองบางอย่างที่ไม่น่ารำคาญคุณสมบัติ P เรียกว่าทฤษฎีบทข้าว

สิ่งแรกที่ควรทราบคือปัญหาการหยุดชะงักจะทำได้ก็ต่อเมื่อเครื่องทัวริงใช้การป้อนข้อมูลแบบยาวโดยพลการ หากอินพุตถูก จำกัด ขอบเขตคุณสามารถระบุเคสที่เป็นไปได้ทั้งหมดและปัญหาไม่สามารถระบุได้อีกต่อไป มันอาจยังไม่มีประสิทธิภาพในการคำนวณ แต่จากนั้นเราจะเปลี่ยนเป็นทฤษฎีความซับซ้อนซึ่งควรเป็นคำถามแยกต่างหาก

ทฤษฏีของข้าวบอกเป็นนัยว่าสติปัญญา (มนุษย์) ไม่สามารถระบุได้ว่าสติปัญญาอื่น (เช่น AGI) มีคุณสมบัติบางอย่างเช่นเป็นมิตรหรือไม่ นี่ไม่ได้หมายความว่าเราไม่สามารถออกแบบ AGI ที่เป็นมิตรได้ แต่ก็ไม่ได้หมายความว่าเราไม่สามารถตรวจสอบได้ว่า AGI ที่เป็นมิตรนั้น ๆ ดังนั้นในขณะที่เราสามารถสร้าง AI ซึ่งรับประกันว่าจะเป็นมิตร แต่เราก็ต้องมั่นใจว่าไอทีไม่สามารถสร้าง AI ที่ไม่เป็นมิตรได้


ฉันแยกคำถามควอนตัมออกเป็นคำถามใหม่ที่: ai.stackexchange.com/q/186/55
WilliamKF
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.