เหตุใด AI จึงต้อง 'กำจัดเผ่าพันธุ์มนุษย์'


10

ฉันกำลังอ่านเรื่องไร้สาระเกี่ยวกับวิธีที่ AI จะเปลี่ยนโลกให้เป็นซูเปอร์คอมพิวเตอร์เพื่อแก้ปัญหาที่คิดว่าจำเป็นต้องแก้ นั่นคงไม่ใช่ AI นั่นคือการเขียนโปรแกรมตามขั้นตอนที่ติดอยู่ในลูปไร้สาระบางอย่าง AI จะต้องพัฒนาและจัดระเบียบเซลล์ประสาทใหม่ มันจะไม่ติดกับฮาร์ดโค้ดหากมันกลายเป็นอัจฉริยะโดยการเขียนรหัสใหม่


หาก AI ไม่ฉลาดกว่าเราอาจเป็นเพราะความสนุกของมัน (ดูสปีซีส์ที่สูญพันธุ์ไป) ไม่แน่ใจว่าเราต้องการสิ่งนั้นหรือไม่เราไม่สนใจมาก
Trilarion

คำตอบ:


13

มันเป็นผลข้างเคียงที่เป็นไปได้

เอเจนต์ที่มุ่งเน้นเป้าหมายอาจทำสิ่งที่บรรลุเป้าหมายในขณะที่ไม่สนใจผลข้างเคียงที่ไม่สำคัญสำหรับเป้าหมายเหล่านี้

หากเป้าหมายของฉันมีพื้นที่อยู่อาศัยที่เป็นระเบียบฉันอาจเปลี่ยนสนามหญ้าเป็นสนามหญ้าเรียบ ๆ หรือทางเท้าในขณะที่กำจัดระบบนิเวศที่ซับซ้อนของชีวิตที่เคยมีมาก่อนเพราะฉันไม่สนใจเรื่องนั้น

หากเป้าหมายของ AI ที่ทรงพลังโดยเฉพาะเกิดขึ้นเพื่อรวมการทำสิ่งใดในขนาดใหญ่และอย่างใดไม่สนใจโดยเฉพาะอย่างยิ่งเกี่ยวกับระบบนิเวศที่ซับซ้อนในปัจจุบันระบบนิเวศนั้นอาจถูกกำจัดออกไปในกระบวนการ มันไม่ต้องการที่จะต้องการหรือต้องการที่จะกำจัดเรา หากเราไม่เกี่ยวข้องกับเป้าหมายของเราเราก็ทำจากวัสดุและใช้พื้นที่ที่มันอาจต้องการใช้เพื่อสิ่งอื่น

เราเป็นภัยคุกคามต่อเป้าหมายส่วนใหญ่

เอเจนต์ที่มุ่งเน้นเป้าหมายใด ๆ อาจต้องการให้แน่ใจว่าพวกเขาสามารถบรรลุเป้าหมายได้ ตัวแทนอัจฉริยะใด ๆจะพยายามคาดการณ์การกระทำของตัวแทนอื่น ๆ ที่อาจป้องกันไม่ให้บรรลุเป้าหมายเหล่านั้นและทำตามขั้นตอนเพื่อให้แน่ใจว่าพวกเขาประสบความสำเร็จ ในหลายกรณีเป็นการง่ายกว่าที่จะกำจัดตัวแทนอื่น ๆ เหล่านั้นแทนที่จะทำให้มั่นใจว่าความพยายามของพวกเขาล้มเหลว

ตัวอย่างเช่นเป้าหมายของฉันอาจรวมถึงการเก็บถุงน้ำตาลในบ้านในชนบทเพื่อให้ฉันสามารถทำแพนเค้กเมื่อเข้าเยี่ยมชมโดยไม่ต้องนำส่วนผสมทั้งหมดมาทุกครั้ง อย่างไรก็ตามถ้าฉันทิ้งไว้ที่นั่นมันน่าจะกินโดยหนูในช่วงฤดูหนาว ฉันอาจใช้ความระมัดระวังทุกชนิดเพื่อเก็บไว้ให้ดีขึ้น แต่หนูฉลาดและมีฝีมือและมีโอกาสที่ชัดเจนว่าพวกเขาจะยังคงประสบความสำเร็จในการบรรลุเป้าหมายของพวกเขาต่อไปดังนั้นข้อควรระวังพิเศษที่มีประสิทธิภาพคือฆ่าหนูก่อนที่พวกเขาจะมีโอกาส เพื่อลอง

หากเป้าหมายของ AI ที่ทรงพลังนั้นจะต้องทำ X อาจเข้าใจว่ามนุษย์ (บางคน) อาจไม่ต้องการ X แต่ Y แทน นอกจากนี้ยังสามารถอนุมานได้ง่ายว่ามนุษย์บางคนอาจทำสิ่งที่ป้องกัน X และ / หรือพยายามปิด AI การทำสิ่งต่าง ๆ ที่ทำให้มั่นใจว่าจะบรรลุเป้าหมายนั้นเป็นสิ่งที่ตัวแทนการค้นหาเป้าหมายทำได้ ในกรณีนี้หากการดำรงอยู่ของมนุษย์ไม่จำเป็นสำหรับเป้าหมาย X อย่างเคร่งครัดการกำจัดพวกมันกลายเป็นกลยุทธ์การลดความเสี่ยง มันไม่ได้เป็นสิ่งที่จำเป็นอย่างเคร่งครัดและอาจใช้เวลาทุกชนิดของข้อควรระวังอื่น ๆ เช่นกัน แต่เช่นเดียวกับในตัวอย่างของฉันของหนูมนุษย์เป็นสมาร์ทและมีฝีมือและมีโอกาสอย่างชัดเจนขี้ปะติ๋วว่าพวกเขาจะยังคงประสบความสำเร็จในการบรรลุของพวกเขา เป้าหมาย (เพื่อให้ X ไม่ได้เกิดขึ้นตามที่ AI ตั้งใจไว้) ดังนั้นข้อควรระวังพิเศษที่มีประสิทธิภาพอาจฆ่าพวกเขาก่อนที่พวกเขาจะมีโอกาสลอง


3
คำตอบที่ยอดเยี่ยมนี้จะได้รับประโยชน์จากการกล่าวถึงการวิจัยเชิงรุกเกี่ยวกับรูปแบบการแบ่งย่อยที่เป็นไปได้ของ AIs การเรียนรู้การเสริมแรงแบบลึกรวมถึงวิธีที่ DRL AI อาจได้มาซึ่งเป้าหมายที่เป็นเครื่องมือบางอย่าง DRL เอไอเอสมีแรงจูงใจโดยฟังก์ชั่นรางวัล ; หากแหล่งที่มาหรือจำนวนกระแสข้อมูลของ AI ถูกคุกคาม AI จะปรับตัวตามลำดับ การปรับตัวนี้ไม่สามารถคาดการณ์ได้; จากมุมมองของ AI การปรับตัวเป็นการปรับค่าพารามิเตอร์ของแบบจำลองภายใน แต่จากมุมมองของเรามันอาจมองว่าเป็นการเริ่มต้นต่อสู้กับความตายกับมนุษย์
Iwillnotexist Idonotexist

1
@forest ประเด็นทั้งหมดของเรื่องราวหุ่นยนต์ของ Asimov คือกฎไม่ทำงาน (และโดยทั่วไปแล้วไม่มีกฎชุดใดที่ใช้งานได้) ปลอดภัยเพียง AI เป็นหนึ่งที่เข้าใจค่าของคุณ คุณอาจจะสามารถใส่กุญแจมือ AI ระดับมนุษย์ได้ แต่ปัญญาระดับสูงชนิดใดก็ตาม (แม้จะเป็นเพียง "มนุษย์ที่มีความเร็วในการประมวลผล 1000x) นั้นไม่ปลอดภัยโดยเนื้อแท้เว้นแต่มันจะมีค่าเดียวกับที่คุณทำ" มันค่อนข้างง่ายที่จะป้องกัน AI การตั้งวงเงินยาก" เป็นอันตรายมากภาพลวงตา .
Luaan

1
@forest หากคุณสามารถสร้างระบบทางคณิตศาสตร์ (หรือตรรกะ) ที่รับประกันความปลอดภัยของ AI ที่ขับเคลื่อนด้วยเป้าหมายคุณควรเผยแพร่และบรรลุความรุ่งโรจน์นิรันดร์ ในขณะเดียวกันคุณอาจพบวิดีโอบางรายการในyoutube.com/channel/UCLB7AzTwc6VFZrBsO2ucBMgซึ่งเป็นสถานที่ที่มีประโยชน์ในการเผยแพร่ความคิดของคุณ
DrMcCleod

1
@forest บางทีคุณอาจโพสต์ลิงก์ไปที่หรือไม่ มันจะดีมาก.
DrMcCleod

1
@forest บทความและการสนทนานี้อธิบายถึงความเสี่ยงของ AI ที่ขับเคลื่อนด้วยเป้าหมายที่ชาญฉลาด ความเสี่ยงจาก AI ในรูปแบบอื่น (เช่นประเภทที่คุณอธิบาย) นั้นแตกต่างกันอย่างเห็นได้ชัด
DrMcCleod

3

มันไม่จำเป็นต้องเป็นเรื่องไร้สาระ ทุกอย่างขึ้นอยู่กับเกณฑ์ที่กำหนด ลองจินตนาการถึงสิ่งต่อไปนี้ สมมติว่าระบบ AI ขั้นสูงได้รับการออกแบบมาเพื่อควบคุมความเสถียรของสัตว์ในท้องถิ่นและพืช (พื้นที่ที่อยู่ในโดมบางประเภท) มันสามารถควบคุมแรงกดใต้โดมปริมาณแสงที่ลอดผ่านโดม ฯลฯ - ทุกสิ่งที่ทำให้มั่นใจได้ว่าสภาวะที่เหมาะสมที่สุด ทีนี้พูดว่าโดมนั้นเป็นที่อยู่อาศัยของสิ่งมีชีวิตหลายชนิดรวมถึงมนุษย์ด้วย เป็นที่น่าสังเกตว่าการใช้งานระบบนี้อย่างง่าย ๆ ได้ถูกใช้ไปแล้วในปัจจุบัน

เนื่องจากมนุษย์มีแนวโน้มที่จะทำลายและทารุณทรัพยากรธรรมชาติรวมทั้งสร้างมลภาวะต่อสิ่งแวดล้อมระบบอาจตัดสินใจว่าการลดจำนวนประชากรของสายพันธุ์ที่กำหนด (มนุษย์ในกรณีนี้) อาจส่งผลดีต่อทั้งชีวิตในระยะยาว

หลักการเดียวกันอาจถูกนำไปใช้ทั่วโลก อย่างไรก็ตามสันนิษฐานว่าสัตว์ทุกชนิด (รวมถึงมนุษย์) ได้รับการปฏิบัติอย่างเท่าเทียมกันและเป้าหมายสูงสุดของ AI คือสร้างความมั่นใจในความมั่นคงของชีวนิเวศที่มัน "ดูแล" ผู้คนทำสิ่งต่าง ๆ ทุกวันนี้ - เราควบคุมประชากรของสัตว์บางชนิดเพื่อรักษาสมดุล - หมาป่าปลาเพื่อชื่อ แต่เพียงไม่กี่


3

ฉันรู้สึกว่าสถานการณ์ส่วนใหญ่เกี่ยวกับการที่ AI ลบล้างโลกตกอยู่ในหนึ่งในสองประเภท:

  1. Anthropomorphized AI

หรือ

  1. คอมพิวเตอร์อัจฉริยะ แต่โง่ใบ้เรียกใช้ Amuck

ในกรณี (1) ผู้คนพูดคุยเกี่ยวกับ AI ที่กำลังกลายเป็น "ความชั่วร้าย" และคุณลักษณะอื่น ๆ ของมนุษย์เช่นองค์ประกอบ ฉันมองว่านี่เป็น sci-fi ส่วนใหญ่และไม่คิดว่ามันจะเป็นการสนทนาที่จริงจังมาก นั่นคือฉันไม่เห็นเหตุผลใด ๆ ที่จะสมมติว่าปัญญาประดิษฐ์ - ไม่ว่ามันจะฉลาดแค่ไหน - มันจะต้องทำตัวเหมือนมนุษย์

กรณี (2) เหมาะสมกับฉันมากกว่า นี่คือความคิดที่ว่า AI คือยกตัวอย่างเช่นควบคุมขีปนาวุธนิวเคลียร์ไซโลและลมขึ้นเปิดตัวขีปนาวุธเพราะมันเพิ่งจะทำหน้าที่ของมัน แต่พลาดสิ่งที่มนุษย์จะสังเกตเห็นผ่านสามัญสำนึก " ดังนั้นชื่อเล่น "ฉลาด แต่โง่"

สิ่งเหล่านี้ไม่ได้ทำให้ฉันหวาดกลัวอย่างยิ่งเพราะ (1) อาจเป็นเรื่องแต่งและ (2) ไม่เกี่ยวข้องกับเจตนาร้ายที่แท้จริงโดย AI - ซึ่งหมายความว่าจะไม่พยายามหลอกลวงเราอย่างจริงจังหรือหลีกเลี่ยงความปลอดภัยใด ๆ ตัดลึกหนาบาง ฯลฯ

ตอนนี้ถ้าใครบางคนสร้าง AI และตัดสินใจที่จะตั้งโปรแกรมอย่างจงใจเพื่อที่จะพัฒนามนุษย์อย่างเช่นความเย่อหยิ่งอัตตาความโลภและอื่น ๆ การเดิมพันทั้งหมดจะถูกปิด


1

AI ใช้แล้วเป็นอาวุธ - คิดบนโดรน

ฉันสงสัยว่า "หุ่นยนต์เข้ายึดครองโลก" มีความเป็นไปได้สูงที่สุดหากมีขั้นตอนกลาง ขั้นตอนกลางนี้อาจเป็น "มนุษย์ยึดครองโลกด้วยหุ่นยนต์"

สิ่งนี้สามารถไปในทิศทางที่ผิด

ฉันสงสัยว่ามันไม่ไกลอย่างที่คิด พิจารณาว่าสหรัฐฯมีเจ้าหน้าที่ 8,000 คนในปัจจุบัน เกิดอะไรขึ้นถ้ามันจะมี 8 ล้านคน? กลุ่มเล็ก ๆ ที่มีความสามารถในการควบคุมพวกเขาสามารถครองโลกได้ หรือกลุ่มเล็ก ๆ ที่ควบคุมส่วนต่าง ๆ ของกองทัพเรือสามารถต่อสู้กับแต่ละคนได้ พวกเขาไม่ควรอยู่ในสหรัฐอเมริกา - ในเวลาที่สหรัฐฯจะมีกองทัพเรือนี้ประเทศอื่น ๆ ก็จะพัฒนาพวกเขาเช่นกัน

Btw, การยึดครองโลกดูเหมือนว่าฉันไม่จริง - ผู้นำทางทหารอาจเปลี่ยนนักบินของมนุษย์เป็นโดรนมันไม่ใช่งานของพวกเขา แต่ "การควบคุมระดับสูง" คือการตัดสินใจว่าจะทำอย่างไรใครคือเป้าหมายการตัดสินใจเหล่านี้พวกเขาจะไม่ยอมแพ้จากมือของพวกเขา

ถัดจากนั้นหุ่นยนต์ไม่มีเป้าหมายระยะยาว เรามนุษย์มี

ดังนั้นฉันจึงไม่พิจารณาการยึดครองแบบ skynet ที่เหมือนจริงมาก แต่เป็น "ความผิดพลาด" ของ chernobyl-style ของคำสั่งที่ตีความผิดซึ่งส่งผลให้อาละวาดอย่างไม่หยุดยั้งของกองทัพเรือ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.