ฉันจะตอบคำถามนี้ในหลายส่วน:
ทำไมระบบ AGI จึงจำเป็นต้องมีสามัญสำนึก?
มนุษย์ในเหตุผลป่าเถื่อนและสื่อสารโดยใช้สามัญสำนึกมากกว่าพวกเขาด้วยตรรกะที่เข้มงวดคุณสามารถเห็นสิ่งนี้ได้โดยการสังเกตว่าเป็นการง่ายกว่าที่จะดึงดูดอารมณ์ของใครบางคนมากกว่าตรรกะ ดังนั้นระบบใดก็ตามที่พยายามทำซ้ำการรับรู้ของมนุษย์ (เช่นเดียวกับใน AGI) ก็ควรทำซ้ำแนวโน้มนี้เพื่อใช้สามัญสำนึก
กล่าวอีกอย่างคือเราต้องการให้ระบบ AGI ของเราสามารถพูดกับเราด้วยภาษาสามัญเพียงเพราะนั่นคือสิ่งที่เราเข้าใจดีที่สุด (ไม่เช่นนั้นเราจะไม่เข้าใจว่า AGI ที่เป็นมิตรของเราจะเป็นอย่างไร) ทฤษฎีทู่และตรรกะที่เข้มงวดอาจมีเทคนิคที่ถูกต้อง แต่ไม่ดึงดูดความเข้าใจของเรา
เป้าหมายของ AGI ไม่ใช่การสร้างระบบที่ก้าวหน้าที่สุดทางความคิดหรือไม่? ทำไมระบบ AGI "ที่สมบูรณ์แบบที่สุด" จำเป็นต้องจัดการกับความไม่สมบูรณ์และความไม่แน่นอนดังกล่าวที่มีอยู่ในสามัญสำนึก?
ครั้งแรกก็อาจจะปรากฏจะเป็นกรณีที่ตรรกะสามัญสำนึกคือ "ไม่มีเหตุผล" บางทีอาจมีวิธีการทางคณิตศาสตร์ที่สอดคล้องกันในการสร้างแบบจำลองสามัญสำนึกเช่นว่ารายละเอียดปลีกย่อยของสามัญสำนึกทั้งหมดจะถูกแสดงในรูปแบบที่เข้มงวด
ประการที่สองการศึกษาปัญญาประดิษฐ์เริ่มต้นในการศึกษาวิทยาศาสตร์เกี่ยวกับความรู้ความเข้าใจซึ่งนักวิจัยพยายามที่จะทำซ้ำ "อัลกอริทึมของจิตใจ" หรือมากกว่านั้นอย่างแม่นยำ: ขั้นตอนที่ตัดสินใจได้ซึ่งจำลองความคิดของมนุษย์ ในขอบเขตนั้นการศึกษาของ AI ไม่ได้สร้าง "ตัวแทนทางปัญญาสูงสุด" แต่เพื่อเลียนแบบความคิด / พฤติกรรมของมนุษย์ เมื่อเราสามารถทำซ้ำพฤติกรรมของมนุษย์เราอาจพยายามสร้างบางสิ่งที่เหนือมนุษย์โดยให้พลังการคำนวณมากขึ้น แต่ก็ไม่รับประกัน
ฉันยังไม่เห็นว่าทำไมจึงจำเป็นต้องมีสามัญสำนึกในระบบ AGI AGI ไม่เกี่ยวกับการเป็นระบบการคำนวณที่ฉลาดและทรงพลังที่สุดใช่หรือไม่? เหตุใดจึงควรดูแลหรือปฏิบัติตามขีด จำกัด ของความเข้าใจของมนุษย์ซึ่งต้องใช้สามัญสำนึก?
บางทีคุณอาจมีความเข้าใจผิดเล็กน้อยเกี่ยวกับสิ่งที่ AGI สร้างขึ้น AGI ไม่ได้หมายถึงพลังการคำนวณที่ไร้ขอบเขต (เป็นไปไม่ได้เนื่องจากข้อ จำกัด ทางกายภาพในการคำนวณเช่นขีด จำกัด ของ Bremermann ) หรือความรู้แจ้งที่ไม่มีขอบเขต (อาจเป็นไปไม่ได้เนื่องจากข้อ จำกัด ก่อนหน้า) มันมักจะหมายถึง "ปัญญาทั่วไป" ประดิษฐ์ความหมายทั่วไปกว้างและทั่วไป
การพิจารณาเกี่ยวกับตัวแทนที่ไม่ได้รับการศึกษาในรายละเอียดเพิ่มเติมในสาขาต่างๆเช่นวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎี (ทฤษฎีประเภทที่ฉันเชื่อ), ทฤษฎีการตัดสินใจและอาจตั้งทฤษฎีที่เราสามารถตั้งคำถามเกี่ยวกับตัวแทนที่มีอำนาจการคำนวณที่ไม่ จำกัด เราอาจพูดได้ว่ามีคำถามแม้แต่ระบบ AGI ที่มีพลังงานไม่สามารถตอบได้เนื่องจากปัญหาการหยุดชะงักแต่หากสมมติฐานในสาขาเหล่านั้นจับคู่กับโครงสร้างของ AGI ที่กำหนดซึ่งอาจไม่เป็นจริง
เพื่อความเข้าใจที่ดีขึ้นเกี่ยวกับสิ่งที่ AGI อาจนำมาใช้และเป้าหมายของหนังสือเล่มนี้ฉันอาจแนะนำหนังสือสองเล่ม: ปัญญาประดิษฐ์: ความคิดมากของ John Haugeland สำหรับแนวทางที่จริงจังมากขึ้น (ในทางปฏิบัติตามปรัชญา AI ได้ ไบรอันคานท์เวลล์สมิ ธ สำหรับแนวทางที่มีความโน้มเอียงมากกว่า
เพื่อความสนุกสนานคอลเลกชันของ Zen koan: ประตู Gateless รวมถึงข้อความต่อไปนี้: (อ้างและแก้ไขจากวิกิพีเดีย )
พระถามจ่างโจวอาจารย์ชาวเซนชาวจีน "มีพระพุทธรูปสุนัขหรือไม่?" Zhaozhou ตอบว่า "Wú"
Wú (無) แปลว่า "none", "nonesuch" หรือ "nothing" ซึ่งสามารถตีความได้ว่าจะหลีกเลี่ยงการตอบใช่หรือไม่ใช่ บุคคลผู้มีความรู้แจ้งนี้ไม่ได้พยายามตอบคำถามทุกข้ออย่างเคร่งครัด แต่เพื่อตอบสนองในทางที่สมเหตุสมผล มันไม่สำคัญหรอกว่าสุนัขจะมีลักษณะของพระพุทธเจ้าหรือไม่ (ไม่ว่าพระพุทธเจ้าจะหมายถึงอะไร) ดังนั้นอาจารย์จึงตั้งต้นที่จะทำให้คำถามหายไป