คำถามติดแท็ก superintelligence

4
แนวคิดของความเป็นเอกเทศทางเทคโนโลยีคืออะไร?
ฉันเคยได้ยินความคิดเกี่ยวกับความแปลกประหลาดทางเทคโนโลยีมันคืออะไรและเกี่ยวข้องกับปัญญาประดิษฐ์ได้อย่างไร นี่คือประเด็นทางทฤษฎีที่เครื่องปัญญาประดิษฐ์ก้าวหน้าไปถึงจุดที่พวกเขาเติบโตและเรียนรู้ด้วยตัวเองเกินกว่าสิ่งที่มนุษย์สามารถทำได้และการเติบโตของพวกเขาจะออกไปไหม เราจะรู้ได้อย่างไรเมื่อเรามาถึงจุดนี้

2
มีข้อโต้แย้งทางวิทยาศาสตร์ / คณิตศาสตร์ที่ป้องกันไม่ให้การเรียนรู้อย่างลึกซึ้งจากการผลิต AI ที่แข็งแกร่งหรือไม่?
ฉันอ่านThe Book of Why ของจูเดียเพิร์ลซึ่งเขากล่าวว่าการเรียนรู้อย่างลึกซึ้งเป็นเพียงแค่เทคโนโลยีการปรับโค้งที่ได้รับการยกย่องและจะไม่สามารถสร้างสติปัญญาของมนุษย์ได้ จากหนังสือของเขามีแผนภาพนี้ที่แสดงความสามารถทางปัญญาสามระดับ: แนวคิดก็คือ "ปัญญา" ที่ผลิตโดยเทคโนโลยีการเรียนรู้ลึกในปัจจุบันนั้นอยู่ในระดับของการเชื่อมโยงเท่านั้น ดังนั้น AI จึงไม่มีที่ไหนใกล้กับระดับของคำถามที่ถามเช่น "ฉันจะทำให้ Y เกิดขึ้นได้อย่างไร" (การแทรกแซง) และ "จะเกิดอะไรขึ้นถ้าฉันทำสิ่งที่แตกต่างไป (counterfactuals) และเป็นไปได้ยากที่เทคนิคการปรับโค้งจะทำให้เราเข้าใกล้ความสามารถทางปัญญาในระดับที่สูงขึ้น ฉันพบว่าเหตุผลของเขาโน้มน้าวใจในระดับสัญชาตญาณ แต่ฉันไม่สามารถหากฎหมายทางกายภาพหรือคณิตศาสตร์ที่สามารถหนุนหรือสงสัยในการโต้แย้งนี้ ดังนั้นมีข้อโต้แย้งทางวิทยาศาสตร์ / กายภาพ / เคมี / ชีวภาพ / คณิตศาสตร์ที่ป้องกันไม่ให้การเรียนรู้อย่างลึกซึ้งจากที่เคยผลิต AI ที่แข็งแกร่ง (ปัญญาเหมือนมนุษย์)?

3
สิ่งที่แปลกประหลาดเป็นสิ่งที่จะต้องดำเนินการอย่างจริงจัง?
คำว่าภาวะเอกฐานมักใช้ในสื่อกระแสหลักเพื่ออธิบายเทคโนโลยีที่มีวิสัยทัศน์ มันถูกนำมาใช้โดยเรย์ Kurzweil ในหนังสือยอดนิยมภาวะเอกฐานอยู่ใกล้: เมื่อมนุษย์ชนะชีววิทยา (2005) ในหนังสือของเขา Kurzweil ให้มุมมองต่ออนาคตที่มีศักยภาพของมนุษยชาติซึ่งรวมถึงนาโนเทคโนโลยีคอมพิวเตอร์การดัดแปลงพันธุกรรมและปัญญาประดิษฐ์ เขาระบุว่ากฎของมัวร์จะทำให้คอมพิวเตอร์มีการเติบโตแบบทวีคูณซึ่งส่งผลให้เกิดความฉลาดหลักแหลม ความแปลกประหลาดทางเทคโนโลยีเป็นสิ่งที่นักพัฒนา AI ให้ความสนใจหรือเป็นทฤษฎีนี้หรือไม่

3
ความแปลกประหลาดทางเทคโนโลยีสามารถเกิดขึ้นได้กับความฉลาดล้ำเท่านั้นหรือไม่?
ในบทที่ 26 ของหนังสือปัญญาประดิษฐ์: วิธีการที่ทันสมัย (ฉบับที่ 3) ตำรากล่าวถึง "เอกฐานเทคโนโลยี" มันเป็นคำพูด IJ ดีผู้เขียนในปี 1965: ให้เครื่องที่มีความฉลาดพิเศษถูกกำหนดให้เป็นเครื่องที่ไกลเกินกว่ากิจกรรมทางปัญญาทั้งหมดของผู้ชายคนใด แต่ฉลาด เนื่องจากการออกแบบเครื่องจักรเป็นหนึ่งในกิจกรรมทางปัญญาเหล่านี้เครื่องที่ชาญฉลาดสามารถออกแบบเครื่องจักรที่ดียิ่งขึ้น จากนั้นจะมี "การระเบิดของความรู้แจ้ง" อย่างไม่ต้องสงสัยและสติปัญญาของมนุษย์จะถูกทิ้งไว้เบื้องหลัง ดังนั้นเครื่องอัลตร้าที่ชาญฉลาดเครื่องแรกคือการประดิษฐ์ครั้งสุดท้ายที่มนุษย์ต้องการโดยมีเงื่อนไขว่าเครื่องนั้นเชื่องพอที่จะบอกเราว่าจะควบคุมมันอย่างไร ต่อมาในตำราเรียนคุณมีคำถามนี้: 26.7 - IJ ดีอ้างว่าหน่วยสืบราชการลับเป็นคุณสมบัติที่สำคัญที่สุดและการสร้างเครื่องจักรที่ยอดเยี่ยมจะเปลี่ยนทุกอย่าง เสือชีตาห์ที่มีอารมณ์ตอบโต้ว่า "ความเร็วที่แท้จริงนั้นสำคัญกว่าถ้าเราสามารถสร้างเครื่องจักรที่เร็วมากมันจะเปลี่ยนทุกอย่าง" และช้างที่มีสรรพสิ่งอ้างว่า "คุณทั้งคู่ผิดสิ่งที่เราต้องการคือเครื่องอัลตร้าไกล การขัดแย้ง? ดูเหมือนว่าคำถามในตำราเรียนเป็นข้อโต้แย้งโดยนัยต่อ IJ Good ดีอาจรักษาความฉลาดมีค่าเพียงเพราะความแข็งแกร่งของมนุษย์อยู่ในลักษณะที่เรียกว่า "ปัญญา" แต่คุณสมบัติอื่น ๆ อาจมีค่าเท่า ๆ กันแทน (ความเร็วหรือความแข็งแกร่ง) และสรรพสัตว์อาจคาดเดาอย่างดุเดือดเกี่ยวกับลักษณะที่ต้องการของพวกเขาเป็น "ขยาย" โดยบางเครื่องหรืออื่น ๆ สิ่งนี้ทำให้ฉันสงสัยว่าภาวะเอกฐานอาจเกิดขึ้นได้หรือไม่ถ้าเราสร้างเครื่องจักรที่ไม่ได้เพิ่มความฉลาดให้สูงสุด แต่แทนที่จะเพิ่มลักษณะอื่น ๆ (เครื่องจักรที่เพิ่มความแข็งแกร่งอยู่เสมอหรือเป็นเครื่องจักรที่เพิ่มความเร็วเสมอ) เครื่องประเภทนี้สามารถเปลี่ยนได้เหมือนกัน - …
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.