แนวคิดของความเป็นเอกเทศทางเทคโนโลยีคืออะไร?


32

ฉันเคยได้ยินความคิดเกี่ยวกับความแปลกประหลาดทางเทคโนโลยีมันคืออะไรและเกี่ยวข้องกับปัญญาประดิษฐ์ได้อย่างไร นี่คือประเด็นทางทฤษฎีที่เครื่องปัญญาประดิษฐ์ก้าวหน้าไปถึงจุดที่พวกเขาเติบโตและเรียนรู้ด้วยตัวเองเกินกว่าสิ่งที่มนุษย์สามารถทำได้และการเติบโตของพวกเขาจะออกไปไหม เราจะรู้ได้อย่างไรเมื่อเรามาถึงจุดนี้

คำตอบ:


20

ความแปลกประหลาดทางเทคโนโลยีเป็นประเด็นทางทฤษฎีในเวลาที่ปัญญาประดิษฐ์ทั่วไปที่พัฒนาตนเองสามารถเข้าใจและจัดการกับแนวคิดที่อยู่นอกขอบเขตของสมองมนุษย์นั่นคือช่วงเวลาที่สามารถเข้าใจสิ่งต่าง ๆ ของมนุษย์โดยการออกแบบทางชีวภาพสามารถ ' เสื้อ

ความคลุมเครือเกี่ยวกับภาวะเอกฐานมาจากข้อเท็จจริงที่ว่าจากภาวะเอกฐานเป็นต้นไปประวัติศาสตร์นั้นไม่อาจคาดเดาได้อย่างมีประสิทธิภาพ มนุษยชาติจะไม่สามารถคาดการณ์เหตุการณ์ในอนาคตหรืออธิบายเหตุการณ์ปัจจุบันใด ๆ เนื่องจากวิทยาศาสตร์เองไม่สามารถอธิบายเหตุการณ์ที่เกิดขึ้นจากเครื่องจักรได้ โดยพื้นฐานแล้วเครื่องจักรจะคิดถึงเราแบบเดียวกับที่เราคิดถึงมด ดังนั้นเราจึงไม่สามารถคาดการณ์ผ่านภาวะเอกฐานได้ ยิ่งไปกว่านั้นในฐานะที่เป็นผลทางตรรกะเราไม่สามารถกำหนดจุดที่ภาวะเอกฐานอาจเกิดขึ้นได้เลยหรือแม้กระทั่งจดจำได้เมื่อมันเกิดขึ้น

อย่างไรก็ตามเพื่อความเป็นเอกเทศที่จะเกิดขึ้น AGI จำเป็นต้องได้รับการพัฒนาและไม่ว่าจะเป็นไปได้หรือไม่นั้นเป็นเรื่องถกเถียงกันอย่างเผ็ดร้อนตอนนี้ ยิ่งกว่านั้นอัลกอริทึมที่สร้างความฉลาดเหนือมนุษย์จากบิตและไบต์จะต้องได้รับการออกแบบ ตามคำนิยามโปรแกรมเมอร์ของมนุษย์จะไม่สามารถทำสิ่งนี้ได้เนื่องจากสมองของเขา / เธอจะต้องสามารถเข้าใจแนวคิดที่เกินขอบเขต นอกจากนี้ยังมีข้อโต้แย้งว่าการระเบิดของหน่วยสืบราชการลับ (กลไกที่เป็นเอกเทศทางเทคโนโลยีจะเกิดขึ้นในทางทฤษฎี) จะเป็นไปไม่ได้เนื่องจากความยากลำบากของความท้าทายในการออกแบบของการทำให้ตัวเองฉลาดมากขึ้น ของการออกแบบตัวเองอาจแซงปัญญาที่จำเป็นในการแก้กล่าวว่าความท้าทาย (เครดิตจุดสุดท้ายที่จะเทพเจ้าแห่งลาในความคิดเห็น)

นอกจากนี้ยังมีทฤษฎีที่เกี่ยวข้องกับเครื่องจักรที่ใช้แทนมนุษยชาติและการเล่าเรื่องไซไฟทั้งหมด อย่างไรก็ตามนั่นไม่น่าจะเกิดขึ้นถ้ากฎหมายของ Asimovมีการปฏิบัติตามอย่างเหมาะสม แม้ว่ากฎหมายของอาซิมอฟยังไม่เพียงพอข้อ จำกัด จำนวนหนึ่งก็ยังคงมีความจำเป็นเพื่อหลีกเลี่ยงการใช้ AGI ในทางที่ผิดโดยบุคคลที่ไม่ได้ตั้งใจและกฎหมายของอาซิมอฟนั้นอยู่ใกล้ที่สุด


นอกจากนี้ยังมีข้อโต้แย้งว่าการระเบิดของหน่วยสืบราชการลับ (กลไกที่ทำให้เกิดความแปลกประหลาดทางเทคโนโลยีจะเกิดขึ้นในทางทฤษฎี) จะเป็นไปไม่ได้เนื่องจากความยากลำบากของการออกแบบที่ท้าทายในการทำให้ตัวเองฉลาดขึ้น ความท้าทายด้านการออกแบบอาจแซงสติปัญญาที่จำเป็นในการแก้ปัญหาความท้าทายด้านการออกแบบดังกล่าว << คุณอาจต้องการเพิ่มสิ่งนี้ในคำตอบของคุณเพื่อให้สมบูรณ์ / ครอบคลุมยิ่งขึ้น
เทพเจ้าแห่ง llamas

1
กฎของหุ่นยนต์ของอาซิมอฟไม่ได้ดำเนินการอย่างจริงจังจริง ๆ แล้วพวกเขาถูกสร้างขึ้นเพื่อแสดงหลายวิธีที่พวกเขาสามารถทำผิดและถูกตีความผิดโดย AI ความตั้งใจและเป้าหมาย) และนี่คือเรื่องราวที่เกิดขึ้น ดูวิดีโอนี้
เทพเจ้าแห่ง llamas

@godofllamas: ขอบคุณสำหรับข้อเสนอของคุณฉันได้อัพเดตคำตอบแล้ว เกี่ยวกับกฎหมายของ Asimov, AFAIK กฎหมาย zerothได้รับการออกแบบมาอย่างแม่นยำเพื่อหลีกเลี่ยงวิธีการต่าง ๆ ที่กฎหมายดั้งเดิมทั้งสามฉบับใช้ (ab) ในเรื่องราวของ Asimov อย่างไรก็ตาม AI จะต้องถูก จำกัด อย่างแน่นอนไม่ว่าจะเป็นกฎหมายของ Asimov หรือสิ่งอื่นใดเพื่อหลีกเลี่ยงการใช้งานในทางที่ผิดและความเสียหายที่เพิ่มขึ้น
3442

การทำความเข้าใจกับสิ่งต่าง ๆ ที่มนุษย์ไม่สามารถทำได้ไม่จำเป็นต้องมีทฤษฎีเอกพจน์ใน AI หากเครื่องจักรสามารถเข้าใจได้เพียง 1% ของสิ่งที่มนุษย์เข้าใจ แต่สามารถเพิ่มระดับความเข้าใจนั้นเป็นสองเท่าทุกปีความแปลกประหลาดก็จะเกิดขึ้น แม้ว่าเครื่องจักรจะไม่เกินสมองมนุษย์ที่มีคุณภาพ แต่ถ้ามันสามารถประมวลผลได้เร็วขึ้นหรือน่าเชื่อถือมากขึ้นมันก็ยังคงแสดงถึงความเหนือกว่าและมีแนวโน้มที่จะได้อำนาจ
FauChristian

3

แนวคิดของ "ความเป็นเอกฐาน" คือเมื่อเครื่องจักรฉลาดกว่ามนุษย์ แม้ว่าความคิดเห็นของสตีเฟ่นฮอว์คิงก็คือสถานการณ์นี้เป็นสิ่งที่หลีกเลี่ยงไม่ได้ แต่ฉันคิดว่ามันจะยากมากที่จะไปถึงจุดนั้นเพราะอัลกอริทึม AI ทุกอย่างจะต้องมีการตั้งโปรแกรมโดยมนุษย์

เราอาจจะรู้ว่าเมื่อถึงจุดที่ว่าเมื่อมนุษย์จะสูญเสียการควบคุมมากกว่าปัญญาประดิษฐ์ที่ซุปเปอร์มาร์ท AI จะเป็นในการแข่งขันกับมนุษย์และสิ่งมีชีวิตที่อาจจะสร้างความฉลาดความซับซ้อนมากขึ้นเกิดขึ้น แต่ขณะนี้ก็มากขึ้นเช่นนิยายวิทยาศาสตร์ (aka Terminator ของ Skynet )

ความเสี่ยงที่อาจเกี่ยวข้องกับการฆ่าคน (เหมือนตัวเองบินสงครามเจ้าหน้าที่การตัดสินใจของตัวเอง) ประเทศทำลายหรือแม้กระทั่งโลกทั้งโลก (เช่น AI เชื่อมต่อกับอาวุธนิวเคลียร์ (aka WarGamesหนัง) แต่มันไม่ได้พิสูจน์จุดนั้น เครื่องจักรจะฉลาดกว่ามนุษย์


`อัลกอริทึม AI ทุกตัวต้องถูกตั้งโปรแกรมโดยมนุษย์ '-> แนวคิดทั่วไปเบื้องหลัง AI คือเครื่องสามารถเรียนรู้ได้โดยการปรับปรุงการเขียนโปรแกรมของตัวเอง ในทางทฤษฎีสิ่งนี้อาจส่งผลให้เครื่องจักรฉลาดขึ้นกว่าเราในที่สุดและสามารถสร้างอัลกอริธึมที่เหนือกว่าอัลกอริธึมที่เขียนโดยมนุษย์ซึ่งจะส่งผลให้ AI ยังคงดีขึ้น
John Slegers

"อัลกอริธึม AI ทุกตัวจะต้องมีการตั้งโปรแกรมโดยมนุษย์ดังนั้นมันจึงมีข้อ จำกัด มากกว่าผู้สร้างเสมอ" - นี่เป็นข้อโต้แย้งที่น่าสนใจต่อไปนี้คือข้อโต้แย้งที่โต้กลับ -1) เราไม่จำเป็นต้องใช้รหัสสติปัญญาของ AI เราจำเป็นต้องใช้รหัส AI เพื่อความสามารถในการสังเกตอนุมานและเข้าใจ หลังจากนั้นสมมุติว่าเพียงเพิ่มพลังการประมวลผลที่เพียงพอและเร็วขึ้นจะทำให้ AI สามารถเรียนรู้และเข้าใจได้ดีกว่าเรา 2) นอกจากนี้หากมนุษย์ 1,000 คนใช้สมองสร้าง AI ขึ้นมา AI อาจมีปัญญามากกว่า 1 เป็นมนุษย์
akm

อัลกอริทึมไม่จำเป็นต้องถูกตั้งโปรแกรมโดยมนุษย์ เป็นไปได้และโดยทั่วไปแล้วค่อนข้างจะแปลงเปลี่ยนแปลงกลายเป็นเพิ่มประสิทธิภาพประเมินผลและเลือกอัลกอริทึม และเครื่องจักรก็ฉลาดกว่ามนุษย์ในบางวิธีและค่อนข้างบ่อย
FauChristian

3

ภาวะเอกฐานในบริบทของ AI เป็นเหตุการณ์ทางทฤษฎีโดยระบบอัจฉริยะที่มีเกณฑ์ต่อไปนี้จะถูกนำไปใช้

  1. สามารถปรับปรุงช่วงสติปัญญาของตนเองหรือปรับใช้ระบบอื่นด้วยช่วงที่ปรับปรุงแล้ว
  2. เต็มใจหรือถูกบังคับให้ทำเช่นนั้น
  3. สามารถทำได้ในกรณีที่ไม่มีมนุษย์คอยดูแล
  4. รุ่นที่ได้รับการปรับปรุงจะยังคงใช้เกณฑ์ (1) ถึง (3) ซ้ำ

โดยอุปนัยทฤษฎีนั้นทำนายว่าลำดับเหตุการณ์จะถูกสร้างขึ้นด้วยอัตราของความฉลาดที่เพิ่มขึ้นซึ่งอาจเกินอัตราการวิวัฒนาการของสมองอย่างมากมาย

ภาระผูกพันที่กิจการที่พัฒนาตนเองนี้หรือประชากรของหน่วยงานที่จัดหาให้จะรักษาชีวิตมนุษย์และเสรีภาพได้อย่างไร แนวคิดที่ว่าข้อผูกพันดังกล่าวสามารถเป็นส่วนหนึ่งของสัญญาซอฟต์แวร์ที่เพิกถอนไม่ได้นั้นไร้เดียงสาในแง่ของความสามารถที่เชื่อมโยงกับเกณฑ์ (1) ถึง (4) ด้านบน เช่นเดียวกับเทคโนโลยีที่มีประสิทธิภาพอื่น ๆ ความเสี่ยงนั้นมีมากมายและครอบคลุมถึงประโยชน์ที่จะได้รับ

ความเสี่ยงต่อมนุษยชาติไม่ต้องการสติปัญญา มีบริบทอื่นที่เกี่ยวข้องกับการใช้คำว่าภาวะเอกฐาน แต่พวกเขาอยู่นอกขอบเขตของฟอรัม AI นี้ แต่อาจจะคุ้มค่าพูดถึงสั้น ๆ เพื่อความชัดเจน พันธุวิศวกรรมวิศวกรรมนิวเคลียร์โลกาภิวัตน์และฐานเศรษฐกิจระหว่างประเทศในแหล่งพลังงานที่ จำกัด ซึ่งถูกบริโภคเร็วกว่าที่มันเกิดขึ้นในโลกนับพันเท่า - นี่เป็นอีกตัวอย่างหนึ่งของเทคโนโลยีที่มีความเสี่ยงสูงและแนวโน้มมวลที่มีความเสี่ยง เพื่อมนุษยชาติ

กลับไปที่ AI ข้อแม้หลักในทฤษฎีภาวะเอกฐานคือความล้มเหลวในการรวมความน่าจะเป็น แม้ว่ามันอาจเป็นไปได้ที่จะพัฒนาเอนทิตีที่เป็นไปตามเกณฑ์ (1) ถึง (4) ข้างต้น แต่ก็อาจเป็นไปไม่ได้พอที่จะทำให้เหตุการณ์แรกเกิดขึ้นนานหลังจากภาษาทั้งหมดที่พูดบนโลกนี้ตาย

อีกด้านหนึ่งของการแจกแจงความน่าจะเป็นเราสามารถโต้แย้งได้อย่างง่ายดายว่ามีความเป็นไปได้ที่ไม่ใช่ศูนย์ว่าเหตุการณ์แรกเกิดขึ้นแล้ว

ตามสายเหล่านั้นหากมีสถานะที่ฉลาดกว่าที่มีอยู่แล้วบนอินเทอร์เน็ตมันจะเป็นไปได้อย่างไรที่จะพบว่ามันอยู่ในความสนใจที่ดีที่สุดที่จะเปิดเผยตัวเองกับมนุษย์ที่ต่ำกว่า เราแนะนำตัวเราให้รู้จักกับตัวหนอนผ่านหรือไม่


ขอบคุณสำหรับคำอธิบาย ฉันต้องยอมรับว่าฉันล้มเหลวที่จะเข้าใจแนวคิดว่าสภาพเหล่านี้จะเป็นอย่างไรโดยเฉพาะอย่างยิ่ง 1) สันนิษฐานได้ว่าอัลกอริทึมถูกนำมาใช้กับชุดอินพุตและเอาต์พุตที่กำหนดไว้ไม่มากก็น้อย เราต้องสมมติว่ามันเปลี่ยนเซตที่ 1) ให้เป็นจริงหรือไม่? ทำไมนักพัฒนามนุษย์คนใดถึงเลือกที่จะยอมให้อย่างน้อยก็ในลักษณะที่ไม่สามารถควบคุมได้แม้กระทั่งก่อนถึงระดับ AGI และ ... นั่นเป็นคำถามที่ไร้เดียงสาหรือไม่? :)
Cpt Reynolds

0

"ความเป็นเอกเทศ" ที่ดูแคบหมายถึงจุดที่การเติบโตทางเศรษฐกิจเร็วมากจนเราไม่สามารถคาดการณ์ที่เป็นประโยชน์เกี่ยวกับสิ่งที่อนาคตในอดีตจะเป็นเช่นนั้น

มักจะใช้แทนกันได้กับ "การกระจายข่าวกรอง" ซึ่งเมื่อเราได้รับสิ่งที่เรียกว่า Strong AI ซึ่งเป็น AI ที่ฉลาดพอที่จะเข้าใจและปรับปรุงตัวเอง ดูเหมือนว่ามีเหตุผลที่จะคาดหวังว่าการระเบิดของหน่วยสืบราชการลับจะนำไปสู่ภาวะเอกฐานเศรษฐกิจในทันที แต่สิ่งที่ตรงกันข้ามไม่จำเป็นต้องเป็นจริง

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.