มีอะไรผิดปกติกับความคิดที่ว่า AI จะมีความสามารถรอบรู้ทุกอย่าง?


10

ในบริบทของปัญญาประดิษฐ์ความเป็นเอกเทศหมายถึงการถือกำเนิดของปัญญาประดิษฐ์ทั่วไปที่สามารถพัฒนาตนเองแบบเรียกซ้ำได้ซึ่งนำไปสู่การเกิดขึ้นอย่างรวดเร็วของปัญญาประดิษฐ์ขั้นสูง (ASI) ข้อ จำกัด ที่ไม่เป็นที่รู้จัก . ดังนั้นปัญญาประดิษฐ์เหล่านี้จะสามารถแก้ไขปัญหาที่เราอาจไม่สามารถแก้ไขได้

จากรายงานการสำรวจความก้าวหน้าในอนาคตในด้านปัญญาประดิษฐ์: การสำรวจความคิดเห็นของผู้เชี่ยวชาญ (2014)

การประมาณค่ามัธยฐานของผู้ตอบแบบสอบถามเป็นหนึ่งในสองโอกาสที่หน่วยสืบราชการลับของเครื่องจักรระดับสูงจะได้รับการพัฒนาประมาณปี 2040-2050

ซึ่งไม่ไกลมาก

มีอะไรผิดปกติกับความคิดที่ว่า AI จะมีความสามารถในการสัพพัญญูเพราะมันจะเป็นประโยชน์ต่อเราโดยการแก้ปัญหามากมาย?

คำตอบ:


8

ฉันชอบมุมมองของคุณมากและหากไม่ได้รับรายละเอียดว่า "ภาวะเอกฐาน" อาจได้รับผลกระทบซึ่งครอบคลุมในคำถามอื่น ๆ อีกมากมายหรือจิตสำนึกและ "สัพพัญญู" เข้ามาเล่นเพราะสติและสัพพัญญูไม่ใช่ข้อกำหนดฉันจะแทน แนะนำคุณสู่นักปรัชญาที่สำคัญสองคน:

  • ฟิลลิปเคดิ๊กสำหรับผู้ที่แก่นกลางในที่มีชื่อเสียง 1968 หนังสือของเขาใน AIเป็นความเห็นอกเห็นใจ (ถ้าคุณยังไม่ได้อ่านฉันจะไม่โพสต์สปอยเลอร์ แต่จะบอกว่าพล็อตนั้นขับเคลื่อนโดยแนวคิดของEvolutionary Game Theoryซึ่งมีรูปแบบเป็นทางการเพียง 5 ปีต่อมา)

  • จอห์นแนชและโดยเฉพาะแนวคิดของสมดุลของแนช (แนชอาจกล่าวได้ว่ามีการสาธิตทางคณิตศาสตร์ว่าเป็น "douchebag" ไม่ใช่กลยุทธ์ที่ดีที่สุดหลักฐานของเขาสามารถนำมาใช้เพื่ออธิบายว่าทำไมdétenteนิวเคลียร์ทำงานจริงซึ่งเป็นสิ่งที่ตรงกันข้ามกับความคาดหวังของฟอนนอยมันน์)

ดังนั้นเมื่อผู้คนคลั่งไคล้โดยมุ่งไปที่มิ ธ อส " Skynet " ที่เครื่องจักรขึ้นมาเพื่อทำลายพวกเราฉันต้องสงสัยว่าพวกเขาไม่ฉลาดเท่าแนชหรือลึกซึ้งเท่ากับดิ๊กซึ่งอาจอธิบายว่าพวกเขาไม่เน้น สิ่งที่สามารถเรียกได้ว่ากระบวนทัศน์ " แกะไฟฟ้า "


1
ฉันเห็นด้วยกับคุณ บางครั้งฉันถามสิ่งที่ทำให้เราสร้างเทคโนโลยีใหม่ เราต้องการพลังที่สมบูรณ์หรือแก้ไขปัญหาจริงของเราหรือไม่? นั่นเป็นเหตุผลที่ฉันชอบมองผ่านปริซึมแห่งความรัก บางคนอาจคิดว่ามันน่าเบื่อ แต่ก็เป็นวิธีที่ฉันเชื่อ
Karl Zillner

@KarlZillner ต่อเนื่องไปข้างหน้าตำนานใน Stross ' Accellerandoเขาแนะนำแนวคิดของ "เศรษฐศาสตร์ 2.0 *, หมายถึงระบบที่แม้มนุษย์เพิ่มไม่สามารถแข่งขันกับอัลกอริทึมบริสุทธิ์และดูเหมือนจะไม่มีจุดหมายอย่างสมบูรณ์ดูเหมือนว่า เพื่อเสนอเส้นทางสู่สองเส้นทางหลักคือกลุ่มกึ่งร่วมมือ AI และกลุ่มพันธมิตรกลาง AI (ซึ่งออกมาในฐานะลูกพี่ลูกน้องที่ฉลาดน้อยกว่าถึงแม้ว่าจะมีฟังก์ชั่นการเข้าซื้อกิจการระดับต่ำที่ได้รับการปรับให้เหมาะสมที่สุด )
DukeZhou

0

คำถามนี้เป็นคำถามที่ดีและในใจของหลาย ๆ คน มีความเข้าใจผิดบางประการที่จะต้องพิจารณา

  • อำนาจสูงสุดของสิ่งมีชีวิตที่ฉลาดกว่ามนุษย์คุกคามอารยธรรม - จินตนาการของภัยคุกคามนั้นสมเหตุสมผลหรือไม่? นั่นคือข้อสรุปที่มีเหตุผลเมื่อความฉลาดของมนุษย์เป็นปรากฏการณ์ทางชีววิทยาที่คุกคามที่สุดในชีวมณฑลในปัจจุบัน ความฉลาดของแมลงอาจจะยั่งยืนมากขึ้น อารยธรรมของมดและปลวกนั้นมีความร่วมมือกันมากกว่า สงครามโลกและการฆ่าล้างเผ่าพันธุ์เป็นหนึ่งในคุณสมบัติหลักของประวัติศาสตร์มนุษย์
  • ปัญญาประดิษฐ์นั้นฉลาดกว่ามนุษย์ - ปัญญาประดิษฐ์นั้นฉลาดกว่ามนุษย์ในบางประเด็นซึ่งเป็นสาเหตุที่เราใช้เครื่องคิดเลขการเปลี่ยนสัญญาณการสื่อสารแบบอัตโนมัติแทนผู้ให้บริการและผู้ส่งจดหมายอัตโนมัติ ในทางอื่น AI จะต้องข้ามระยะทางดาราศาสตร์เพื่อเริ่มประมาณความฉลาดของมนุษย์ เราไม่มีอะไรที่แม้แต่แสดงให้เห็นถึงความสามารถในการจำลองหรือทำซ้ำในอนาคตความสามารถของมนุษย์ในการให้เหตุผลการประดิษฐ์หรือความเห็นอกเห็นใจ
  • ความเป็นเอกเทศได้รับการคาดการณ์ในยุค 2040 - มีสมมติฐานที่ไม่เป็นจริงมากกว่าหนึ่งโหลในการทำนายเหล่านั้น ดูด้วยตาที่สำคัญในการโต้แย้งใด ๆ ที่อยู่ข้างหลังพวกเขาและคุณจะต้องปรับรูที่คุณสามารถบิน 757 ผ่านการปิดตา
  • การเติบโตแบบทวีคูณในความรู้ - มีการเติบโตของข้อมูลแบบเอ็กซ์โพเนนเชียล แต่สัดส่วนของข้อมูลที่ถูกตรวจสอบโดยผู้ตรวจสอบที่ถูกต้องตามกฎหมายลดลงตามข้อมูลที่ผิดการคาดเดาป่าและการเพิ่มข่าวปลอม ความเชื่อของฉันคือปริมาณข้อมูลในโลกสามารถประมาณโดย log (n) โดยที่ n คือประชากร ถ้าฉันติดตามความสัมพันธ์นั้นค่าข้อมูลของบุคคลทั่วไปคือ log (n) / n ซึ่งลดลงเมื่อประชากรเพิ่มขึ้น
  • AI จะสามารถสัพพัญญูได้ - การรอบรู้เป็นมากกว่าการตอบคำถามใด ๆ สัพพัญญูคงต้องการการตอบรับที่เชื่อถือได้ 100% และแม่นยำ 100% ซึ่งอาจต้องการซิลิคอนมากกว่าที่มีอยู่ในจักรวาล อ่านความโกลาหลของ Gleick หากคุณต้องการเข้าใจว่าทำไม เราอาจโต้แย้งว่าผู้รอบรู้นั้นไม่สามารถตอบคำถามตามคำสั่งได้

หากคุณต้องการโลกที่ดีกว่าหนึ่งเดียวที่ควบคุมโดยสติปัญญาของมนุษย์ดังนั้นทิศทางเดียวที่จะใช้คือการแสวงหาการพัฒนาสายพันธุ์ใหม่ที่มีความคิดที่ก้าวหน้ายิ่งขึ้นของอารยธรรมอันสงบสุขที่สามารถทำให้เชื่องและเชื่องเราเหมือนสุนัข แมว

เส้นทางที่ง่ายกว่านั้นก็คือพวกเราทุกคนต้องตาย ชีวมณฑลอาจมีอารยธรรมมากขึ้นก่อนที่เราจะมาถึงและเริ่มฆ่าทุกสิ่งและกันและกัน แต่นั่นไม่ใช่ความหวังของฉัน

ข้อเสนอแนะของฉันคือเราศึกษา NI (ที่ไม่ฉลาด) และค้นพบวิธีกำจัดสิ่งที่โง่จากพฤติกรรมมนุษย์และปฏิสัมพันธ์ทางภูมิรัฐศาสตร์ สิ่งนี้จะช่วยปรับปรุงโลกให้ดีกว่าการเรียนรู้แกดเจ็ตและแอพ


0

นี่คือปัญหาบางอย่างที่จิตใจลิงของฉันเกิดขึ้น

1.Smart! = ทุกคนรู้

การระเบิดการปรับปรุงตัวเองของ AI ทำให้มันฉลาดขึ้นและฉลาดขึ้น การมีความฉลาดไม่ได้หมายถึงการรู้ข้อเท็จจริงเพิ่มเติม ฉันคิดว่านี่เป็นข้อโต้แย้งที่พิถีพิถัน แต่ฉันคิดว่าควรจะคิด

แพทย์ที่ฉลาดมากที่ไม่รู้ประวัติของคุณอาจยังเป็นตัวเลือกที่แย่กว่าแพทย์ที่ฉลาดน้อยกว่าและมีข้อมูลที่ดีกว่า

2. มันมีไว้สำหรับมนุษย์เหรอ? มันสำหรับมนุษย์ทุกคน?

ASI ซึ่งไปถึงระดับที่สูงขึ้นไม่สามารถให้ความสนใจในความเป็นอยู่ของเรา

ASI ที่มีการควบคุมนั้นยังคงสามารถทำงานเพื่อผลประโยชน์ของคนเพียงไม่กี่คนเท่านั้นหากไม่กี่คนที่ตัดสินใจเลือกเป้าหมายที่ไม่ถูกต้องเราสามารถย้อนกลับไปได้

3 ASI รุนแรง

จิตใจทางวิทยาศาสตร์ไม่จำเป็นต้องเต็มไปด้วยความเห็นอกเห็นใจหรือความเอาใจใส่

4. เป็นคนฉลาดและไม่ฉลาด

จิตใจที่ยิ่งใหญ่ยังคงทำผิดพลาด: * ในการกำหนดเป้าหมายและ * ในการดำเนินการตามแผนเพื่อให้บรรลุ

สติปัญญาไม่รับประกันการขาด shorosightedness หรือขาดจุดบอด

5. ข้อ จำกัด

หากมีขอบเขตของการดำรงอยู่ (จำกัด ความเร็วของแสงชนิด) แล้ว AI จะถูกผูกไว้ด้วยสิ่งเหล่านี้เช่นกัน นี่อาจหมายความว่ามีบางสิ่งที่แม้แต่ ASI จะไม่ 'รับ' นอกจากนี้เนื่องจากจิตใจของเราอาจมีข้อ จำกัด ตามโครงสร้าง AI ถัดไปอาจมีข้อ จำกัด เช่นกัน - และแม้ว่าจะปรับปรุง uppn แล้วก็อาจมีข้อ จำกัด ที่ไม่สามารถหาวิธีแก้ปัญหาได้เพราะมัน 'โง่เกินไป'

6. เราจะไม่ได้รับมัน

ความเข้าใจของ ASI ในบางแง่มุมของโลกอาจไม่สามารถสื่อสารกับมนุษย์ส่วนใหญ่ได้ เราจะไม่ได้รับมัน (แม้ว่าเราจะสามารถเข้าใจทุกอย่างไม่ได้หมายความว่าเราจะเข้าใจ)

7. วิธีใช้งาน

เราอาจทำลายตัวเองและ AI ด้วยเทคโนโลยีที่ช่วยเราสร้าง ไม่จำเป็นต้องเป็นระเบิด มันอาจจะเป็น geoengineering หรือสงสัยยาเสพติด

นี่คือความรุนแรงโดยเฉพาะอย่างยิ่งเมื่อ ASI มีประสิทธิภาพอยู่แล้ว แต่ไม่แข็งแรงพอที่จะมองเห็นผลกระทบเชิงลบ (หรือเราจะเพิกเฉยต่อมัน)

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.