ทำไม Stephen Hawking ถึงพูดว่า“ ปัญญาประดิษฐ์จะฆ่าพวกเราทุกคน”? [ปิด]


10

คำพูดของสตีเฟ่นฮอว์คิงได้รับการกล่าวถึงในหัวข้อนี้มาระยะหนึ่งแล้ว:

ปัญญาประดิษฐ์สามารถลบล้างมนุษยชาติเมื่อมันฉลาดเกินไปเพราะมนุษย์จะเป็นเหมือนมด

ทำไมเขาพูดอย่างนี้? พูดง่ายๆก็คือคนธรรมดา: อะไรคือภัยคุกคามที่เป็นไปได้จาก AI? ถ้าเรารู้ว่า AI นั้นอันตรายทำไมเรายังส่งเสริมอยู่ ทำไมมันไม่ถูกแบน?

อะไรคือผลกระทบเชิงลบของภาวะเอกฐานทางเทคโนโลยีที่เรียกว่า?


1
บางทีคำถามนี้อาจถูกนำมาใช้ซ้ำกับคำถามเกี่ยวกับความเป็นไปได้ของภาวะเอกฐานทางเทคโนโลยีหรือไม่?
Rob Murray

1
@ R.Murray แก้ไขและเพิ่มจุดของคุณให้กับร่างกาย ...
tatan

2
ฉันขอโทษ แต่ลงคะแนนจากฉัน ได้โปรดได้โปรดถามคำถามที่ตอบได้แทนที่จะเป็นคำถามเก็งกำไร ฉันหมายถึง "ทำไม Stephen Hawking จึงพูดว่า" ปัญญาประดิษฐ์จะฆ่าพวกเราทุกคน "?" สิ่งใดที่คุณคาดหวังที่เหมาะสมคำตอบจะเป็นอย่างไร เราต้องการคำถามทางเทคนิคตั้งแต่เบต้าแรก ๆ เพื่อดึงดูดผู้เชี่ยวชาญมากกว่าใครก็ตามที่มีความรู้พื้นฐานจากการอ่านหน้าวิกิพีเดียสองสามหน้า อ้างอีกครั้ง - "ทำไมสตีเฟ่นฮอว์คิงพูดว่า" ปัญญาประดิษฐ์จะฆ่าพวกเราทุกคน "?" ฉันไม่คิดว่าจำเป็นต้องใช้ความเชี่ยวชาญใด ๆในการตอบคำถามนี้ ขออภัยถ้าฉันเจอเรื่องหยาบคายในคำพูดน้อย ๆ ของฉัน: P
Rushat Rai

คำถามจะดีขึ้นหลังจากการแก้ไข แต่จะดีกว่าหากลดจำนวนคำถามที่ถาม ตัวอย่างเช่นคุณอาจถามว่า "AI จะกำจัดมนุษยชาติได้อย่างไร" (ตามที่คุณดูเหมือนจะทำ) แต่ทำไมมันยังถูกค้นคว้าอย่างหนักเป็นคำถามที่แตกต่างกัน
เบ็น N

2
ฉันคิดว่าคำถามในหัวข้อไม่ใช่คำถามที่ไม่ดี มันมีคำตอบเพราะมันถามเกี่ยวกับสิ่งที่สตีเฟ่นฮอว์คิงคิด คำถามอื่น ๆ ในร่างกายนั้นแตกต่างไปจากนี้และควรถูกลบออก ฉันเห็นด้วยแม้ว่านี่ไม่ใช่คำถามที่ดึงดูดผู้เชี่ยวชาญ
Harsh

คำตอบ:


5

ไม่ใช่แค่ฮอว์คิงคุณได้ยินความแตกต่างในบทนี้จากผู้คนมากมาย และเนื่องจากพวกเขาส่วนใหญ่เป็นคนฉลาดมีการศึกษาดีและมีข้อมูลดี (เช่น Elon Musk เป็นอีกคนหนึ่ง) มันอาจไม่ควรถูกไล่ออกจากมือ

อย่างไรก็ตามแนวคิดพื้นฐานน่าจะเป็นเช่นนี้: ถ้าเราสร้างปัญญาประดิษฐ์ "ของจริง" ในบางครั้งมันจะสามารถปรับปรุงตัวเองซึ่งจะช่วยปรับปรุงความสามารถในการปรับปรุงตัวเองซึ่งหมายความว่ามันสามารถปรับปรุงความสามารถในการปรับปรุงตัวเองได้ มากขึ้นเรื่อย ๆ ... น้ำตกที่วิ่งหนีไปสู่ ​​"ความฉลาดเหนือมนุษย์" กล่าวคือนำไปสู่บางสิ่งที่ฉลาดกว่าพื้นที่ของเรา

แล้วจะเกิดอะไรขึ้นถ้ามีสิ่งมีชีวิตบนโลกใบนี้ที่ฉลาดกว่าเรา (มนุษย์)? มันจะเป็นภัยคุกคามต่อเราหรือไม่? ดูเหมือนว่าจะมีเหตุผลพอที่จะคาดเดาว่าอาจเป็นเช่นนั้น OTOH เราไม่มีเหตุผลเฉพาะตอนนี้ที่จะคิดว่ามันจะเป็นเช่นนั้น

ดังนั้นดูเหมือนว่าฮอว์คิงมัสค์และอื่น ๆ เพิ่งจะลงไปในด้านที่ระมัดระวัง / หวาดกลัวมากขึ้น เนื่องจากเราไม่ทราบว่า AI เหนือมนุษย์จะเป็นอันตรายหรือไม่และเนื่องจากมันอาจไม่สามารถหยุดได้ถ้ามันเป็นอันตราย (จำไว้ว่ามันฉลาดกว่าเรา!) มันเป็นสิ่งที่สมควรที่จะต้องพิจารณา

Eliezer Yudkowsky เขียนเรื่องนี้ค่อนข้างน้อยเช่นกันรวมถึงการทดลอง "AI Box" ที่โด่งดัง ฉันคิดว่าทุกคนที่สนใจในหัวข้อนี้ควรอ่านเนื้อหาของเขา

http://www.yudkowsky.net/singularity/aibox/


1
ฉันคิดว่า AI Box เป็นการแนะนำที่ไม่ดีเกี่ยวกับความเสี่ยงของ AI ตั้งเป้าหมายส่วนเล็ก ๆ ของคำอธิบายซึ่งเป็น "ใครจะมั่นใจได้ว่าจะให้ AI ออกจากกล่องได้?" สำหรับคนที่คิดว่า AI คุ้มค่าที่จะใช้พวกเขาได้ตัดสินใจแล้วว่าควรปล่อยให้เขาออกนอกกรอบ วิทยานิพนธ์ Orthogonality อาจเป็นจุดเริ่มต้นที่ดีที่สุดที่ฉันคิด
Matthew Graves

ยุติธรรมพอสมควร ฉันเพิ่งคุ้นเคยกับงานเขียนของ Yudkowsky มากขึ้น ฉันไม่ได้ตั้งใจจะลดความสำคัญของงานอื่น ๆ ในหัวข้อนี้
mindcrime

4

เนื่องจากเขายังไม่ทราบว่า AI ปัจจุบันไกลแค่ไหน ... การทำงานในแล็บสื่อ AI ฉันได้รับคำถามนี้มากมาย แต่จริงๆแล้ว ... เรายังห่างไกลจากนี้ หุ่นยนต์ยังคงทำทุกสิ่งที่เราอธิบายให้พวกเขาทำอย่างไม่หยุดยั้ง แทนที่จะมองว่าหุ่นยนต์เป็นคนฉลาดฉันก็จะมองไปที่โปรแกรมเมอร์ของมนุษย์สำหรับความคิดสร้างสรรค์ที่เกิดขึ้นจริง


การประเมินความซื่อสัตย์ของสถานะการวิจัยเป็นหนึ่งในเสาหลักในการพัฒนา ขอบคุณ. ฉันเห็นด้วย.
FauChristian

3

หากต้องการกล่าวอย่างง่ายๆว่าเป็นคนธรรมดาอะไรคือภัยคุกคามที่เป็นไปได้จาก AI

ปัจจุบันไม่มีภัยคุกคาม

ภัยคุกคามเกิดขึ้นได้หากมนุษย์สร้างเครื่องจักรที่เรียกว่าปัญญาล้ำซึ่งเป็นเครื่องจักรที่สามารถเอาชนะกิจกรรมทางปัญญาทั้งหมดโดยมนุษย์คนใดก็ได้ นี่จะเป็นสิ่งประดิษฐ์สุดท้ายที่มนุษย์จะต้องทำเนื่องจากเครื่องจักรนี้ดีกว่าในการประดิษฐ์เครื่องจักรมากกว่ามนุษย์ (เนื่องจากเป็นกิจกรรมทางปัญญา) อย่างไรก็ตามสิ่งนี้อาจทำให้เครื่องจักรประดิษฐ์เครื่องจักรที่สามารถทำลายมนุษย์และเราไม่สามารถหยุดพวกมันได้เพราะมันฉลาดกว่าเรา

ทั้งหมดนี้เป็นข้อสันนิษฐานไม่มีใครมีเงื่อนงำแม้แต่กับเครื่องจักรที่ดูเฉียบแหลม

ถ้าเรารู้ว่า AI นั้นอันตรายทำไมเรายังส่งเสริมอยู่ ทำไมมันไม่ถูกแบน?

อย่างที่ฉันได้พูดไปก่อนหน้านี้การดำรงอยู่ของเครื่องจักรที่เฉียบแหลมเป็นเรื่องสมมุติ ปัญญาประดิษฐ์มีแอปพลิเคชั่นที่มีประโยชน์มากมาย (มากกว่าคำตอบนี้มี) และถ้าเราพัฒนามันเราจะได้แอปพลิเคชันที่มีประโยชน์มากยิ่งขึ้น เราแค่ต้องระวังว่าเครื่องจักรจะไม่แซงหน้าเรา


3

อย่างที่แอนดรูว์กล่าวว่าการกังวลเกี่ยวกับภัยคุกคามจาก AI นั้นเป็นเรื่องที่น่ากังวลเกี่ยวกับการมีประชากรมากเกินไปบนดาวอังคาร มันเป็นนิยายวิทยาศาสตร์

ป้อนคำอธิบายรูปภาพที่นี่

ที่ถูกกล่าวว่าได้รับการเพิ่มขึ้นของ (อ่อนแอ) หุ่นยนต์และอื่น ๆ (กึ่ง) ตัวแทนอิสระด้านของกฎหมายและจริยธรรมมีมากขึ้นรวมไว้เช่นดูRoboethics


3

มีจำนวนของทรัพยากรที่จะตอบยาวเรียงลำดับของคำถามนี้: พิจารณาหนังสือจวร์ตอาร์มสตรองฉลาดกว่าเรานิค Bostrom หนังสือSuperintelligenceที่งอกออกมานี้คำตอบ edge.org , คำอธิบายที่เมืองทิมของหรือคำอธิบายที่ไมเคิลโคเฮน

แต่นี่คือคำตอบของฉัน (สั้นลง): ความฉลาดเป็นเรื่องเกี่ยวกับการตัดสินใจและเราไม่มีเหตุผลที่จะเชื่อว่ามนุษย์อยู่ใกล้กับการตัดสินใจที่ดีที่สุด เมื่อเราสามารถสร้างนักวิจัย AI AI (นั่นคือคอมพิวเตอร์ที่รู้วิธีทำให้คอมพิวเตอร์ดีขึ้นในการคิด) ความเกี่ยวข้องทางเศรษฐกิจและการทหารของมนุษย์จะหายไปอย่างรวดเร็วเนื่องจากการตัดสินใจใด ๆ ที่มนุษย์สามารถทำได้ ดีกว่าโดยคอมพิวเตอร์ (เหตุใดจึงมีนายพลมนุษย์แทนที่จะเป็นนายพลหุ่นยนต์วิศวกรมนุษย์แทนที่จะเป็นวิศวกรหุ่นยนต์และอื่น ๆ )

นี่ไม่ใช่ความหายนะ หาก Vulcans ปรากฏตัวขึ้นในวันพรุ่งนี้และนำการตัดสินใจมาสู่โลกที่ดีกว่าเราสามารถหลีกเลี่ยงความทุกข์ยากได้มากมาย ส่วนที่ยากคือการทำให้แน่ใจว่าสิ่งที่เราได้รับคือ Vulcans ที่ต้องการให้เราอยู่รอบ ๆ และมีความสุขแทนที่จะเป็นสิ่งที่ไม่แบ่งปันค่านิยมของเรา


3

เขาพูดแบบนี้เพราะมันสามารถเกิดขึ้นได้ หากมีบางสิ่งที่ฉลาดกว่าเราทำไมจะให้บริการเราต่อไป สถานการณ์ที่เลวร้ายที่สุดคือใช้กระบวนการผลิตทั้งหมดและบริโภคทุกสิ่งเพื่อแปลงเป็นวัสดุที่มีความสามารถในการคำนวณขยายออกไปด้านนอกอย่างไม่มีที่สิ้นสุดจนกระทั่งสสารทั้งหมดถูกใช้ไป

เรารู้ว่า AI นั้นอันตราย แต่ก็ไม่สำคัญเพราะคนส่วนใหญ่ไม่เชื่อ มันขัดกับศาสนาความสะดวกสบายทุกอย่างที่มีให้ มนุษย์เป็นจุดจบของจักรวาลทั้งหมดและหากความจริงนั้นขัดแย้งกันผู้คนจะรู้สึกไม่เข้าท่าและไม่มีจุดหมาย

ความจริงก็คือคนส่วนใหญ่ไม่ยอมรับว่าเป็นไปได้หรือจะเกิดขึ้นในช่วงชีวิตของเราแม้ว่าผู้เชี่ยวชาญ AI ที่มีชื่อเสียงจำนวนมากจะทำให้เกิดภาวะเอกฐานภายในสองทศวรรษ หากผู้คนยอมรับอย่างแท้จริงว่า AI ที่ฉลาดกว่าพวกเขาเป็นไปได้พวกเขาจะมีชีวิตที่แตกต่างกันหรือ พวกเขาจะไม่มองหาที่จะทำสิ่งต่าง ๆ ที่พวกเขาชอบโดยรู้ว่าพวกเขาทำอะไรที่พวกเขากลัวจะเป็นไปโดยอัตโนมัติ? ทุกคนจะไม่เรียกหารายได้พื้นฐานที่เป็นสากลหรือไม่

เหตุผลอื่นที่เราไม่ห้ามเพราะสัญญานั้นดีเยี่ยม นักวิจัยคนหนึ่งสามารถเพิ่มจำนวนได้ 1,000 ผู้ช่วยวิจัยดิจิทัล แรงงานด้วยตนเองทั้งหมดอาจเป็นไปโดยอัตโนมัติ เป็นครั้งแรกที่เทคโนโลยีให้อิสระแก่เราในการทำสิ่งที่เราต้องการ

แต่ถึงแม้ในสถานการณ์กรณีที่ดีที่สุดในกรณีนี้ที่มันไม่ได้แซงเรามนุษย์ก็ยังต้องปรับตัวและปรับเปลี่ยนระบบเศรษฐกิจของพวกเขาให้เข้ากับสถานการณ์ที่แรงงานไม่จำเป็น มิฉะนั้นผู้ที่ไม่ได้รับการฝึกฝนทางเทคนิคจะอดตายและกบฏ


คุณมีซอสสำหรับเรื่องนี้หรือไม่ -> "ผู้เชี่ยวชาญด้าน AI ทำให้เกิดภาวะเอกฐานภายในสองทศวรรษ"กรุณา ;)
Daniel

ฉันไม่สามารถหาแบบสำรวจต้นฉบับได้ แต่เว็บไซต์เหล่านี้เข้ามาใกล้: aiimpacts.org/predictions-of-human-level-ai-timelines - aiimpacts.org/ai-timeline-surveys - techemergence.com/artificial-intelligence -risk
zavtra
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.