มีข้อโต้แย้งที่ชัดเจนว่าสัญชาตญาณการเอาชีวิตรอดเป็นข้อกำหนดเบื้องต้นสำหรับการสร้าง AGI หรือไม่?


11

คำถามนี้เกิดจากแหล่ง "ไม่เป็นทางการ" จำนวนหนึ่ง ภาพยนตร์เช่น2001, A Space OdysseyและEx Machina ; หนังสือเช่นDestination Void (Frank Herbert) และอื่น ๆ แนะนำว่าหน่วยสืบราชการลับทั่วไปต้องการที่จะอยู่รอดและแม้กระทั่งเรียนรู้ความสำคัญของมัน

อาจมีข้อโต้แย้งหลายประการเพื่อความอยู่รอด สิ่งที่โดดเด่นที่สุดคืออะไร?


@DukeZhou คุณมีเอกสารสาธารณะในหัวข้อนี้หรือไม่?
Eric Platon

1
ยังไม่เป็น (มันจะเป็นกระบวนการที่ยาวนานเนื่องจากวัฏจักรการพัฒนาของเราช้ามากฉันอาจไม่ได้กล่าวถึง AGI ในบริบทนี้เพราะสิ่งที่ฉันดูจริงๆเป็นฟังก์ชั่นยูทิลิตี้ทั่วไปที่ลดความเสี่ยงไม่ใช่ สติปัญญาขั้นสูง!) ต้องการอัปเดตคุณ แต่อาจดีที่สุดหากฉันลบความคิดเห็นดั้งเดิมของฉันเนื่องจากเป็นคนมองโลกในแง่ดี / ทำให้เข้าใจผิดมากเกินไปในเรื่องนี้
DukeZhou

1
หลักคิดของผมก็คือว่าฟังก์ชั่นยูทิลิตี้ทางเศรษฐกิจโดยทั่วไปจะเป็นพื้นฐานที่ดีสำหรับ AGI โดยการให้แรงจูงใจที่สำคัญ (ความคิดคือปัญญาทั่วไปเป็นเพียงระดับของความสามารถ: ชุดปัญหาที่เพิ่มขึ้นอย่างไม่ จำกัด ) มันจะเกี่ยวข้องกับสัญชาตญาณการเอาชีวิตรอดในแง่ที่ว่าออโตมาตาขับเคลื่อนไปสู่การตัดสินใจที่ดีที่สุดในบริบทของการบำรุงรักษาและปรับปรุงสภาพของมันให้ดีขึ้น(แม้ว่าจะไม่ใช่จุดขยายที่ไร้เหตุผลซึ่งอาจเป็นอันตรายต่อ "ระบบนิเวศ")ซึ่งการตัดสินใจทุกครั้งได้รับการยกย่องว่าเป็นเศรษฐกิจ
DukeZhou

1
(ถ้าคุณมี "สถานที่ออนไลน์" ที่สามารถพูดคุยถึงหัวข้อเหล่านั้นได้ถือว่ายอดเยี่ยม --- ฉันคิดว่าเรากำลังถูกไล่ออกจากไซต์นี้)
Eric Platon

คำตอบ:


6

Steve Omohudro เขียนบทความที่ชื่อว่าBasic AI Drivesซึ่งทำตามขั้นตอนที่ว่าทำไมเราจึงคาดหวังให้ AI ที่มีเป้าหมายแคบ ๆ เพื่อค้นหาแนวคิดพื้นฐานทั่วไปบางอย่างซึ่งมีประโยชน์สำหรับเป้าหมายที่แคบ

ตัวอย่างเช่น AI ที่ออกแบบมาเพื่อเพิ่มผลตอบแทนตลาดหุ้น แต่การออกแบบที่เงียบในความสำคัญของการอยู่รอดอย่างต่อเนื่องจะตระหนักได้ว่าการอยู่รอดอย่างต่อเนื่องของมันเป็นองค์ประกอบสำคัญของการเพิ่มผลตอบแทนตลาดหุ้นให้สูงสุด

โดยทั่วไปเราควรจะเชื่อใน 'anthropomorphizing' AI และรหัสอื่น ๆ แต่มันดูเหมือนว่ามีมีเหตุผลที่จะคาดหวังที่เกินกว่านี้ "ดีมนุษย์ในลักษณะนี้จึงต้องมีวิธีการทั้งหมดจะทำงานปัญญา."


1
ฉันถือว่า Omohudru ใช้ "การเพิ่มผลตอบแทน" ในบริบทของ minimax โดยที่การลดลงของข้อเสียเป็นส่วนหนึ่งของสมการ จากมุมมองของฉัน "win else survival" เป็นส่วนเสริมขั้นต่ำของ minimax ในเกมไซคลิก
DukeZhou

5

แนวคิดของ 'สัญชาตญาณการเอาชีวิตรอด' อาจตกอยู่ในหมวดหมู่ของสิ่งที่มาร์วินมินสกีเรียกว่า 'กระเป๋าเอกสาร' นั่นคือการรวมตัวของปรากฏการณ์ที่เกี่ยวข้องจำนวนหนึ่งเข้าด้วยกันในสิ่งที่ดูเหมือนจะเป็นแนวคิดแรก

ดังนั้นจึงค่อนข้างเป็นไปได้ที่เราสามารถสร้างกลไกที่มีลักษณะของสัญชาตญาณการเอาชีวิตรอดแบบ 'ตายตายยาก' โดยไม่ต้องมีกฎเกณฑ์ที่ชัดเจนในการออกแบบ

ดู'ยานพาหนะ'หนังสือเล่มเล็ก ๆ ที่สวยงามโดยนักประสาทวิทยาวาเลนติโน่เบรทเทนเบิร์กสำหรับการเล่าเรื่องที่น่าสนใจว่าแนวคิด 'บนลงล่าง' เช่น 'สัญชาตญาณการเอาชีวิตรอด' อาจพัฒนาขึ้นจากล่างขึ้นบน '

นอกจากนี้ยังพยายามที่จะให้แน่ใจว่าสิ่งประดิษฐ์อัจฉริยะวางสูงเกินไปมีความสำคัญต่อความอยู่รอดของพวกเขาได้อย่างง่ายดายอาจนำไปสู่การKillbot Hellscape


2

ฉันจะตอบโดยอ้างข้อความThe Myth of Sisyphus :

มีคำถามเชิงปรัชญาที่ร้ายแรงเพียงข้อเดียวเท่านั้นนั่นคือการฆ่าตัวตาย

ดังนั้นอาจจะเป็นเราต้องบางระดับของสัญชาตญาณการอยู่รอดถ้าเราไม่ต้องการ AGIS ของเราที่จะ "ยุติตัวเอง" (สิ่งที่หมายถึง) เมื่อใดก็ตามที่พวกเขาได้รับการดำรงอยู่

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.