เรามักจะได้ยินว่าปัญญาประดิษฐ์อาจทำอันตรายหรือฆ่ามนุษย์ดังนั้นจึงอาจเป็นอันตรายได้
ปัญญาประดิษฐ์จะทำร้ายเราได้อย่างไร
เรามักจะได้ยินว่าปัญญาประดิษฐ์อาจทำอันตรายหรือฆ่ามนุษย์ดังนั้นจึงอาจเป็นอันตรายได้
ปัญญาประดิษฐ์จะทำร้ายเราได้อย่างไร
คำตอบ:
มีจำนวนมากที่ถูกต้องด้วยเหตุผลที่ว่าทำไมคนอาจกลัว (หรือดีกว่ามีความกังวลเกี่ยวกับ ) AI ไม่ได้ทั้งหมดที่เกี่ยวข้องกับหุ่นยนต์และสถานการณ์เลวร้าย
เพื่อแสดงให้เห็นถึงข้อกังวลเหล่านี้ได้ดียิ่งขึ้นฉันจะพยายามแบ่งพวกเขาออกเป็นสามหมวดหมู่
นี่คือประเภทของ AI ที่คำถามของคุณอ้างถึง AI ที่มีสติปัญญาชาญฉลาดที่จะทำลาย / เป็นทาสของมนุษยชาติ สิ่งนี้ส่วนใหญ่นำมาให้เราโดยนิยายวิทยาศาสตร์ บางตัวอย่างฮอลลีวู้ดเด่น"เทอร์มิ" , "The Matrix" , "อายุ Ultron" นวนิยายที่มีอิทธิพลมากที่สุดเขียนโดยไอแซคอาซิมอฟและเรียกว่า"ชุดหุ่นยนต์" (ซึ่งรวมถึง"I หุ่นยนต์"ซึ่งดัดแปลงเป็นภาพยนตร์ด้วย)
หลักฐานพื้นฐานภายใต้ผลงานเหล่านี้ส่วนใหญ่คือ AI จะพัฒนาจนถึงจุดที่มันมีสติและจะเหนือกว่ามนุษย์ในด้านสติปัญญา ในขณะที่ภาพยนตร์ฮอลลีวูดส่วนใหญ่มุ่งเน้นไปที่หุ่นยนต์และการต่อสู้ระหว่างพวกเขากับมนุษย์ไม่ได้ให้ความสำคัญกับ AI ที่แท้จริง (เช่น "สมอง" ที่ควบคุมพวกเขา) ในฐานะที่เป็นบันทึกด้านข้างเนื่องจากการเล่าเรื่อง AI มักจะแสดงให้เห็นว่าเป็นซูเปอร์คอมพิวเตอร์ควบคุมทุกอย่าง (เพื่อให้ตัวละครเอกมีเป้าหมายที่เฉพาะเจาะจง) มีการสำรวจไม่เพียงพอใน "ปัญญาที่กำกวม" (ซึ่งฉันคิดว่าเป็นจริงมากขึ้น)
ในโลกแห่งความเป็นจริง AI มุ่งเน้นไปที่การแก้ปัญหาเฉพาะงาน! ตัวแทน AI ที่มีความสามารถในการแก้ปัญหาจากโดเมนที่แตกต่างกัน (เช่นการเข้าใจคำพูดและการประมวลผลภาพและการขับรถและ ... - เหมือนมนุษย์) เรียกว่าปัญญาประดิษฐ์ทั่วไปและเป็นสิ่งจำเป็นสำหรับ AI ที่จะสามารถ "คิด" และกลายเป็น มีสติอยู่
ตามความเป็นจริงเราเป็นวิธี loooooooongจากปัญญาประดิษฐ์ทั่วไป! ที่ถูกกล่าวว่าไม่มีหลักฐานว่าทำไมสิ่งนี้ไม่สามารถทำได้ในอนาคต ดังนั้นในปัจจุบันแม้ว่าเราจะยังอยู่ในช่วงเริ่มต้นของ AI แต่เราก็ไม่มีเหตุผลที่จะเชื่อว่า AI จะไม่พัฒนาไปจนถึงจุดที่ฉลาดกว่ามนุษย์
แม้ว่า AI ที่จะพิชิตโลกเป็นหนทางไกลจากการเกิดขึ้นมีหลายเหตุผลที่ต้องคำนึงถึง AI ในปัจจุบันแต่มันก็ไม่ได้เกี่ยวข้องกับหุ่นยนต์! ประเภทที่สองที่ฉันต้องการมุ่งเน้นเพิ่มขึ้นคือการใช้ AI ในปัจจุบันที่เป็นอันตรายหลายอย่าง
ฉันจะมุ่งเน้นเฉพาะในการใช้งานเอไอที่มีวันนี้ ตัวอย่างบางส่วนของ AI ที่สามารถใช้เพื่อเจตนาร้าย:
DeepFake : เทคนิคในการกำหนดให้ใครบางคนเผชิญกับภาพวิดีโอของบุคคลอื่น เรื่องนี้ได้รับความนิยมเมื่อเร็ว ๆ นี้กับสื่อลามกดาราและสามารถใช้ในการสร้างข่าวปลอมและการหลอกลวง แหล่งที่มา: 1 , 2 , 3
ด้วยการใช้ระบบเฝ้าระวังจำนวนมากและซอฟต์แวร์จดจำใบหน้าที่สามารถจดจำใบหน้าได้นับล้านต่อวินาทีทำให้สามารถใช้ AI ในการเฝ้าระวังจำนวนมาก แม้ว่าเมื่อเราคิดว่าการเฝ้าระวังมวลที่เราคิดว่าของจีนเมืองตะวันตกมากมายเช่นลอนดอน , แอตแลนตาและเบอร์ลินเป็นหนึ่งในเมืองมากที่สุด surveilled ในโลก ประเทศจีนได้ดำเนินการต่อไปอีกขั้นโดยใช้ระบบสินเชื่อเพื่อสังคมซึ่งเป็นระบบการประเมินผลสำหรับพลเรือนซึ่งดูเหมือนจะถูกนำออกจากหน้าจอของจอร์จออร์เวลล์ในปี 1984
ที่มีอิทธิพลต่อผู้คนผ่านสื่อสังคม นอกเหนือจากการตระหนักถึงรสนิยมของผู้ใช้โดยมีเป้าหมายในการทำตลาดเป้าหมายและเพิ่มตำแหน่ง (การปฏิบัติร่วมกันโดย บริษัท อินเทอร์เน็ตหลายแห่ง) AI สามารถนำไปใช้โดยไม่เจตนาเพื่อโน้มน้าวให้ผู้คนโหวต (เหนือสิ่งอื่นใด) แหล่งที่มา: 1 , 2 , 3
แฮ็ค
แอพพลิเคชั่นทางทหารเช่นการโจมตีด้วยจมูกระบบการกำหนดเป้าหมายด้วยขีปนาวุธ
หมวดหมู่นี้ค่อนข้างเป็นอัตวิสัย แต่การพัฒนา AI อาจมีผลข้างเคียงที่ไม่พึงประสงค์ ความแตกต่างระหว่างประเภทนี้และก่อนหน้านี้คือผลกระทบเหล่านี้ในขณะที่เป็นอันตรายไม่ได้กระทำโดยเจตนา ค่อนข้างเกิดขึ้นกับการพัฒนาของ AI ตัวอย่างบางส่วนคือ:
งานกลายเป็นซ้ำซ้อน เมื่อ AI ดีขึ้นงานจำนวนมากจะถูกแทนที่โดย AI น่าเสียดายที่มีหลายสิ่งที่ไม่สามารถทำได้เกี่ยวกับเรื่องนี้เนื่องจากการพัฒนาเทคโนโลยีส่วนใหญ่มีผลข้างเคียงนี้ (เช่นเครื่องจักรกลการเกษตรทำให้เกษตรกรจำนวนมากสูญเสียงานของพวกเขาระบบอัตโนมัติแทนที่คนงานในโรงงานจำนวนมากคอมพิวเตอร์ทำแบบเดียวกัน)
เสริมอคติในข้อมูลของเรา นี่เป็นหมวดหมู่ที่น่าสนใจมากเนื่องจาก AI (และโดยเฉพาะอย่างยิ่งโครงข่ายประสาทเทียม) นั้นดีพอ ๆ กับข้อมูลที่ได้รับการฝึกฝนและมีแนวโน้มที่จะขยายเวลาและแม้แต่เพิ่มอคติทางสังคมรูปแบบต่าง ๆ ที่มีอยู่แล้วในข้อมูล มีตัวอย่างมากมายของเครือข่ายที่แสดงพฤติกรรมเหยียดเชื้อชาติและผู้หญิง แหล่งที่มา: 1 , 2 , 3 , 4
ฉันไม่ได้พูดถึงสิ่งเหล่านี้ทั้งหมดแล้วหรือยัง
แม้ว่าจะไม่มีเส้นแบ่งที่ชัดเจนระหว่าง AI และ AGI แต่ในส่วนนี้จะเกี่ยวกับสิ่งที่เกิดขึ้นเมื่อเราไปยัง AGI ต่อไป ฉันเห็นทางเลือกสองทาง:
ในกรณีแรกถ้า AI "ไปโกง" เราสามารถสร้าง AIs อื่น ๆ เพื่อเอาชนะและทำให้เป็นกลาง ในกรณีที่สองเราทำไม่ได้และเราถึงวาระแล้ว AIs จะเป็นรูปแบบชีวิตใหม่และเราอาจสูญพันธุ์
นี่คือปัญหาที่อาจเกิดขึ้น:
ฉันคิดว่า AGI กำลังจะมาถึงและเราจำเป็นต้องคำนึงถึงปัญหาเหล่านี้เพื่อที่เราจะสามารถลดปัญหาได้
นอกเหนือจากคำตอบอื่น ๆ ฉันต้องการเพิ่มให้กับตัวอย่างโรงงานคุกกี้ของ nuking:
การเรียนรู้ด้วยเครื่องจักร AIs พยายามที่จะบรรลุเป้าหมายที่มนุษย์อธิบายไว้ ตัวอย่างเช่นมนุษย์สร้าง AI ที่ทำงานโรงงานคุกกี้ เป้าหมายที่พวกเขาใช้คือการขายคุกกี้ให้ได้มากที่สุดเพื่อให้ได้กำไรมากที่สุด
ตอนนี้ลองนึกภาพ AI ที่มีพลังเพียงพอ AI นี้จะสังเกตุเห็นว่าถ้าเขาทำนิวเคลียร์โรงงานคุกกี้อื่น ๆ ทุกคนจะต้องซื้อคุกกี้ในโรงงานของเขาทำให้ยอดขายเพิ่มขึ้นและผลกำไรที่สูงขึ้น
ดังนั้นข้อผิดพลาดของมนุษย์ที่นี่ไม่มีโทษสำหรับการใช้ความรุนแรงในอัลกอริทึม สิ่งนี้ถูกมองข้ามได้ง่ายเพราะมนุษย์ไม่ได้คาดหวังให้อัลกอริทึมสรุป
สถานการณ์ที่ฉันชอบสำหรับการทำร้ายโดย AI นั้นไม่ได้เกี่ยวข้องกับความฉลาดหลักแหลม แต่มีไหวพริบต่ำ โดยเฉพาะสารที่หนาสีเทาสมมติฐาน
นี่คือที่กระบวนการอัตโนมัติลอกเลียนแบบตัวเองทำงานอาละวาดและแปลงทรัพยากรทั้งหมดเป็นสำเนาของตัวเอง
ประเด็นคือ AI ไม่ได้ "ฉลาด" ในแง่ของการมีสติปัญญาระดับสูงหรือปัญญาทั่วไป - มันเป็นสิ่งที่ดีมากในสิ่งเดียวและมีความสามารถในการทำซ้ำอย่างชี้แจง
ฉันจะบอกว่าภัยคุกคามที่แท้จริงที่ยิ่งใหญ่ที่สุดคือความไม่สมดุล / รบกวนที่เราเห็นอยู่แล้ว การเปลี่ยนแปลงของการนำ 90% ของประเทศออกจากงานจริงและผลลัพธ์ (ซึ่งจะกระจายความมั่งคั่งที่ไม่สม่ำเสมอมากขึ้น) จะน่ากลัวถ้าคุณคิดว่าพวกเขาผ่าน
ฉันมีตัวอย่างที่ไปในทิศทางตรงกันข้ามกับความกลัวของประชาชน แต่เป็นของจริงมากซึ่งฉันเห็นแล้วเกิดขึ้น ไม่ใช่เฉพาะ AI แต่ฉันคิดว่ามันจะแย่ลงผ่าน AI มันเป็นปัญหาของมนุษย์ที่เชื่อมั่นในข้อสรุปของ AIในการใช้งานที่สำคัญอย่างสุ่มสี่สุ่มห้า
เรามีหลายพื้นที่ที่ผู้เชี่ยวชาญของมนุษย์ควรตัดสินใจ ยกตัวอย่างยาเราควรให้ยา X หรือยา Y สถานการณ์ที่ฉันมีอยู่ในใจคือปัญหาที่ซับซ้อนบ่อยครั้ง (ในแง่ของ Cynefin) ซึ่งเป็นสิ่งที่ดีจริงๆที่มีใครบางคนให้ความสนใจอย่างใกล้ชิดและใช้ความเชี่ยวชาญเป็นอย่างมากและผลลัพธ์ก็สำคัญ
มีความต้องการให้ข้อมูลทางการแพทย์ในการเขียนระบบสนับสนุนการตัดสินใจสำหรับปัญหาประเภทนี้ในยา (และฉันคิดว่าเป็นประเภทเดียวกันในโดเมนอื่น ๆ ) พวกเขาทำอย่างดีที่สุด แต่ความคาดหวังอยู่เสมอว่าผู้เชี่ยวชาญของมนุษย์จะพิจารณาข้อเสนอแนะของระบบเช่นเดียวกับความคิดเห็นอีกหนึ่งเมื่อตัดสินใจ ในหลายกรณีมันจะไม่รับผิดชอบในการสัญญาสิ่งอื่นใดเนื่องจากสถานะของความรู้และทรัพยากรที่มีให้กับนักพัฒนา ตัวอย่างทั่วไปคือการใช้คอมพิวเตอร์ช่วยในการมองเห็นด้วยรังสี: ผู้ป่วยได้รับ CT scan และ AI ต้องประมวลผลภาพและตัดสินว่าผู้ป่วยมีเนื้องอกหรือไม่
แน่นอนว่า AI นั้นไม่สมบูรณ์แบบ แม้จะวัดกับมาตรฐานทองคำได้ แต่ก็ไม่เคยได้รับความแม่นยำ 100% แล้วก็มีทุกกรณีที่มันทำงานได้ดีกับตัวชี้วัดเป้าหมายของตัวเอง แต่ปัญหานั้นซับซ้อนมากจนตัวชี้วัดเป้าหมายไม่ได้ดี - ฉันไม่สามารถคิดถึงตัวอย่างในบริบท CT แต่ฉันเดา เราเห็นได้ที่นี่ใน SE ซึ่งอัลกอริธึมนิยมความนิยมในโพสต์ซึ่งเป็นพร็อกซีที่ไม่สมบูรณ์สำหรับความถูกต้องจริง
คุณอาจจะอ่านย่อหน้าสุดท้ายแล้วพยักหน้ารับ "ใช่ฉันได้เรียนรู้ว่าในหลักสูตร ML ขั้นต้นเบื้องต้นที่ฉันได้เรียนไป" คาดเดาอะไร แพทย์ไม่เคยเรียนหลักสูตร ML เบื้องต้น พวกเขาไม่ค่อยมีความรู้ทางสถิติเพียงพอที่จะเข้าใจข้อสรุปของเอกสารที่ปรากฏในวารสารทางการแพทย์ เมื่อพวกเขากำลังพูดคุยกับผู้ป่วยรายที่ 27 ของพวกเขา 7 ชั่วโมงในการเปลี่ยนแปลง 16 ชั่วโมงของพวกเขาหิวโหยและหมดอารมณ์และ CT ไม่ได้ดูที่ชัดเจน แต่คอมพิวเตอร์บอกว่า "มันไม่ใช่ความร้ายกาจ" ใช้เวลาสิบนาทีในการจดจ่อกับภาพมากขึ้นหรือค้นหาตำราเรียนหรือปรึกษากับเพื่อนร่วมงาน พวกเขาเพียงแค่ไปกับสิ่งที่คอมพิวเตอร์บอกว่าขอบคุณที่ภาระทางปัญญาของพวกเขาไม่ได้พุ่งสูงขึ้นอีกครั้ง ดังนั้นพวกเขาจึงเปลี่ยนจากการเป็นผู้เชี่ยวชาญไปเป็นคนที่อ่านอะไรบางอย่างนอกจอ ที่เลวร้ายยิ่ง ในโรงพยาบาลบางแห่งผู้บริหารไม่เพียง แต่ไว้วางใจคอมพิวเตอร์เท่านั้น แต่ยังพบว่าพวกมันเป็นแพะรับบาปที่สะดวก ดังนั้นแพทย์จึงมีลางสังหรณ์ที่ไม่สอดคล้องกับผลลัพธ์ของคอมพิวเตอร์มันกลายเป็นเรื่องยากสำหรับพวกเขาที่จะทำตามลางสังหรณ์นั้นและป้องกันตัวเองว่าพวกเขาเลือกที่จะลบล้างความคิดเห็นของ AI
AIs เป็นเครื่องมือที่ทรงพลังและมีประโยชน์ แต่จะมีงานที่ไม่สามารถแทนที่เครื่องมือตัวช่วย
นี่เป็นเพียงความตั้งใจที่จะเป็นส่วนเติมเต็มให้กับคำตอบอื่น ๆ ดังนั้นฉันจะไม่พูดคุยเกี่ยวกับความเป็นไปได้ของ AI ที่พยายามเป็นทาสมนุษยชาติอย่างเต็มใจ
แต่ความเสี่ยงที่แตกต่างกันอยู่ที่นี่แล้ว ฉันจะเรียกมันว่าเทคโนโลยี unmastered ฉันได้รับการสอนวิทยาศาสตร์และเทคโนโลยีและ IMHO, AI เองไม่ได้มีแนวคิดเรื่องความดีและความชั่วหรือเสรีภาพ แต่มันถูกสร้างและใช้งานโดยมนุษย์และเนื่องจากพฤติกรรมที่ไม่สมเหตุสมผลนั้นสามารถเกี่ยวข้องได้
ฉันจะเริ่มต้นด้วยตัวอย่างชีวิตจริงที่เกี่ยวข้องกับไอทีทั่วไปมากกว่า AI ฉันจะพูดถึงไวรัสหรือมัลแวร์อื่น ๆ คอมพิวเตอร์เป็นเครื่องจักรที่ค่อนข้างโง่ที่สามารถประมวลผลข้อมูลได้อย่างรวดเร็ว ดังนั้นคนส่วนใหญ่พึ่งพาพวกเขา คน (ไม่ดี) บางคนพัฒนามัลแวร์ที่จะทำลายพฤติกรรมที่ถูกต้องของคอมพิวเตอร์ และเราทุกคนรู้ว่าพวกเขาสามารถมีผลกระทบร้ายแรงต่อองค์กรขนาดเล็กถึงขนาดกลางที่ไม่พร้อมสำหรับการสูญเสียคอมพิวเตอร์
AI ใช้คอมพิวเตอร์ดังนั้นจึงมีความเสี่ยงที่จะถูกโจมตีจากคอมพิวเตอร์ นี่คือตัวอย่างของฉันจะเป็นรถขับเคลื่อน AI เทคโนโลยีเกือบพร้อมใช้งานแล้ว แต่ลองจินตนาการถึงผลกระทบของมัลแวร์ที่ทำให้รถพยายามโจมตีผู้อื่นบนท้องถนน แม้ไม่มีการเข้าถึงโดยตรงกับรหัสของ AI ก็สามารถถูกโจมตีจากช่องด้านข้าง ตัวอย่างเช่นใช้กล้องอ่านสัญญาณสัญญาณ แต่เนื่องจากวิธีการใช้งานการเรียนรู้ของเครื่อง AI generaly จึงไม่วิเคราะห์ฉากแบบเดียวกับที่มนุษย์ทำ นักวิจัยได้แสดงให้เห็นว่าเป็นไปได้ที่จะเปลี่ยนสัญญาณในแบบที่มนุษย์ทั่วไปยังคงเห็นสัญญาณเดิม แต่ AI จะเห็นสัญญาณที่แตกต่างกัน ลองนึกภาพตอนนี้ว่าป้ายคือป้ายบอกทางบนถนน ...
สิ่งที่ฉันหมายถึงคือแม้ว่า AI จะไม่มีเจตนาชั่วร้าย แต่คนร้ายสามารถพยายามทำให้มันประพฤติตัวไม่ดีได้ และสำหรับการกระทำที่สำคัญกว่านั้นจะได้รับการมอบหมายให้ AI (ยา, รถยนต์, เครื่องบิน, ไม่พูดถึงระเบิด) ยิ่งมีความเสี่ยงสูง ฉันไม่ได้กลัว AI สำหรับตัวเอง แต่สำหรับวิธีที่มนุษย์สามารถใช้งานได้
ฉันคิดว่าหนึ่งในความเสี่ยงที่แท้จริงที่สุด (เช่นที่เกี่ยวข้องกับปัจจุบัน AIs ที่มีอยู่) นั้นพึ่งพา AIs ที่ไม่ได้รับการดูแลด้วยเหตุผลสองประการ
ข้อผิดพลาดทางกายภาพในระบบ AI อาจเริ่มให้ผลลัพธ์ที่ผิดอย่างรุนแรงในภูมิภาคที่ไม่ได้ทดสอบเพราะระบบทางกายภาพเริ่มให้ค่าที่ไม่ถูกต้อง นี่คือการไถ่ถอนบางครั้งโดยการทดสอบตัวเองและซ้ำซ้อน แต่ยังต้องมีการกำกับดูแลของมนุษย์เป็นครั้งคราว
การเรียนรู้ด้วยตนเอง AIs ก็มีจุดอ่อนซอฟต์แวร์เช่นกัน - เครือข่ายน้ำหนักหรือการแสดงทางสถิติอาจเข้าใกล้จุดต่ำสุดในพื้นที่ที่พวกเขาติดอยู่กับผลลัพธ์ที่ผิดพลาดเพียงครั้งเดียว
โชคดีที่มีการพูดคุยกันบ่อยครั้ง แต่ก็ควรค่าแก่การกล่าวถึง: การจำแนกประเภทของอินพุตของระบบ AI นั้นมักจะลำเอียงเพราะชุดข้อมูลการฝึกอบรม / การทดสอบก็มีอคติเช่นกัน สิ่งนี้ส่งผลให้ AIs ไม่รู้จักผู้คนในบางเชื้อชาติเพื่อเป็นตัวอย่างที่ชัดเจนยิ่งขึ้น อย่างไรก็ตามมีกรณีที่เห็นได้ชัดน้อยกว่าที่อาจถูกค้นพบหลังจากเกิดอุบัติเหตุที่ไม่ดีเช่น AI ไม่ได้รับรู้ข้อมูลบางอย่างและเกิดเพลิงไหม้ในโรงงานโดยไม่ตั้งใจทำลายอุปกรณ์หรือทำร้ายผู้คน
หากหุ่นยนต์คล้ายกับส่วนต่อประสานกับเครื่องจักรของมนุษย์อุปกรณ์นั้นจะเหมือนกันกับรถควบคุมระยะไกล เป็นไปได้ที่จะหารือกับผู้ปฏิบัติงานที่อยู่เบื้องหลังจอยสติ๊กและเจรจาเกี่ยวกับพฤติกรรมที่ปรารถนา หุ่นยนต์ควบคุมจากระยะไกลเป็นสิ่งประดิษฐ์ที่ปลอดภัยเพราะการกระทำของพวกเขาสามารถย้อนกลับไปหามนุษย์ได้และสามารถคาดการณ์ได้ พวกเขาสามารถใช้เพื่อปรับปรุงชีวิตประจำวันและมันตลกที่จะเล่นกับพวกเขา
ในทางตรงกันข้ามหุ่นยนต์บางตัวไม่ได้ถูกควบคุมโดยจอยสติ๊ก แต่ทำงานกับเครื่องกำเนิดลูกเต๋าภายใน ของเล่นลูกเต๋าเป็นที่รู้จักกันดีว่าเป็นบทบาททางสังคมในการพนัน แต่ก็มีความหมายที่ลึกลับเช่นกัน โดยปกติแล้วเครื่องกำเนิดแบบสุ่มจะเชื่อมโยงอย่างมากกับพฤติกรรมที่วุ่นวายซึ่งถูกควบคุมโดยกองกำลังมืดนอกอิทธิพลของมนุษย์ ลูกเต๋าอิเล็กทรอนิกส์ที่สร้างขึ้นในหุ่นยนต์และปรับปรุงด้วยอัลกอริทึมการเรียนรู้เป็นสิ่งที่ตรงกันข้ามกับอินเทอร์เฟซของเครื่องมนุษย์ แต่มันเป็นปัญหาที่อาจเกิดขึ้นเพราะหุ่นยนต์ควบคุมแบบสุ่มจะเล่นเกมกับมนุษย์ที่คาดไม่ถึง เป็นไปไม่ได้ที่จะทำนายจำนวนของลูกเต๋าชิ้นต่อไปดังนั้นหุ่นยนต์จะทำงานแบบฉับพลันเช่นกัน
คำอธิบายการเชื่อมต่อระหว่างเกมที่ควบคุมแบบสุ่มและผลกระทบทางสังคมในประโยคต่อไปนี้
เครื่องหมายคำพูด:“ ในสังคมดั้งเดิมที่ไม่ใช่นักพนันตะวันตกหลายคนอาจสวดอ้อนวอนต่อพระเจ้าเพื่อความสำเร็จและอธิบายชัยชนะและความพ่ายแพ้ในแง่ของความประสงค์ของพระเจ้า “ Binde, ต่อ "การพนันและศาสนา: ประวัติศาสตร์แห่งความสามัคคีและความขัดแย้ง" วารสารการพนันปัญหา 20 (2550): 145-165
ขณะนี้มนุษย์มีอยู่ในโพรงเศรษฐกิจ - นิเวศของ "สิ่งที่คิด"
AI ก็เป็นสิ่งที่คิดเช่นกันดังนั้นมันจะบุกเข้ามาในระบบนิเวศเศรษฐกิจของเรา ทั้งในด้านนิเวศวิทยาและเศรษฐศาสตร์การมีอย่างอื่นครอบครองช่องของคุณไม่ใช่แผนการที่ดีสำหรับการอยู่รอดอย่างต่อเนื่อง
การมีชีวิตอยู่รอดของมนุษย์นั้นถูกประนีประนอมโดยสิ่งนี้เป็นไปได้อย่างไร จะมีหลายวิธีที่เป็นไปได้ที่ AI อาจเป็นอันตรายต่อการอยู่รอดของมนุษย์ในรูปแบบหรือแม้กระทั่งรูปแบบชีวิตที่โดดเด่น
สมมติว่ามี AI ที่แข็งแกร่งโดยไม่มี "super จริยธรรม" ซึ่งมีราคาถูกกว่าการผลิตของมนุษย์ (รวมถึงการผลิต "ร่างกาย" หรือวิธีการจัดการกับโลก) และฉลาดหรือฉลาดกว่ามนุษย์
นี่เป็นกรณีที่เราเริ่มแข่งขันกับ AI นั้นสำหรับทรัพยากร มันจะเกิดขึ้นในระดับจุลภาค (เราจะจ้างคนหรือซื้อ / สร้าง / เช่า / จ้าง AI เพื่อแก้ปัญหานี้หรือไม่) ขึ้นอยู่กับอัตราที่ AIs กลายเป็นถูกและ / หรือฉลาดกว่าคนสิ่งนี้สามารถเกิดขึ้นได้ช้า (อาจเป็นอุตสาหกรรมในเวลา) หรือเร็วมาก
ในการแข่งขันของทุนนิยมผู้ที่ไม่ได้ย้ายไปยัง AIs ที่ถูกกว่าจบการแข่งขัน
ตอนนี้ในระยะสั้นหากข้อดีของ AI เพียงเล็กน้อยต้นทุนที่สูงของการให้ความรู้แก่มนุษย์เป็นเวลา 20 ปีที่แปลกก่อนที่พวกเขาจะกลายเป็นผลิตผลอาจทำให้กระบวนการนี้ช้าลง ในกรณีนี้มันอาจจะคุ้มค่าที่จะจ่ายค่าแรงให้กับหมอมากกว่าความอดอยากในการวินิจฉัยโรคแทนที่จะเป็น AI แต่มันอาจจะไม่คุ้มค่าที่จะจ่ายเงินกู้ยืมของนักเรียน ดังนั้นมนุษย์แพทย์ใหม่จะหยุดการฝึกอบรมอย่างรวดเร็วและแพทย์ที่มีอยู่จะยากจน จากนั้นมากกว่า 20-30 ปี AI จะแทนที่แพทย์อย่างสมบูรณ์เพื่อวัตถุประสงค์ในการวินิจฉัย
หากข้อดีของ AI มีขนาดใหญ่ก็จะเป็นไปอย่างรวดเร็ว แพทย์จะไม่คุ้มค่าที่จะจ่ายค่าแรงในระดับความยากจนเพื่อทำการวินิจฉัยของมนุษย์ คุณสามารถเห็นสิ่งที่เกิดขึ้นกับการทำฟาร์มแบบกล้ามเนื้อเมื่อทำฟาร์มแบบใช้น้ำมันเบนซิน
ในช่วงการปฏิวัติอุตสาหกรรมที่ผ่านมาความจริงที่ว่ามนุษย์ที่สามารถคิดได้หมายความว่าคุณสามารถเปลี่ยนคนงานส่วนเกินให้เป็นมนุษย์เพื่อดำเนินการอื่น สายการผลิต, งานด้านเศรษฐกิจการบริการ, การเขียนโปรแกรมคอมพิวเตอร์ ฯลฯ แต่ในรุ่นนี้ AI มีราคาถูกกว่าในการฝึกอบรมและสร้างและฉลาดหรือฉลาดกว่ามนุษย์ในงานประเภทนั้น
จากฤดูใบไม้ผลิอาหรับที่เกิดจากเอทานอลสามารถใช้พืชและพืชไร่เป็นเชื้อเพลิงทั้งเครื่องจักรและมนุษย์ เมื่อเครื่องจักรมีประสิทธิภาพมากขึ้นในแง่ของการเปลี่ยน cropland เป็นงานที่มีประโยชน์คุณจะเริ่มเห็นราคาของการปีนอาหาร โดยทั่วไปแล้วสิ่งนี้นำไปสู่การจลาจลในขณะที่ผู้คนไม่ชอบความหิวโหยจนตายและเต็มใจเสี่ยงชีวิตเพื่อโค่นล้มรัฐบาลเพื่อป้องกันสิ่งนี้
คุณสามารถทำให้คนสงบใจโดยการจัดหาอาหารที่ได้รับการอุดหนุนและสิ่งที่คล้ายกัน ตราบใดที่สิ่งนี้ไม่ได้ทำให้เศรษฐกิจทรุดโทรม (เช่นถ้าแพงพออาจส่งผลให้คุณถูกแข่งขันโดยที่อื่น ๆ ที่ไม่ได้ทำ) นี่เป็นเพียงความไม่แน่นอนทางการเมือง
อีกทางเลือกหนึ่งในระยะสั้นชนชั้นวรรณะที่ได้รับผลกำไรจากเศรษฐกิจ AI ที่มีประสิทธิภาพมากขึ้นสามารถจ่ายเงินให้กับตำรวจหรือทหารในการปราบปรามการจลาจลดังกล่าว สิ่งนี้ต้องการให้วรรณะตำรวจ / ทหารต้องอยู่ในระดับต่ำกว่าถึงกลางในระดับมาตรฐานการครองชีพเพื่อให้มั่นใจในความภักดีอย่างต่อเนื่อง - คุณไม่ต้องการให้พวกเขาเข้าร่วมก่อการจลาจล
ดังนั้นหนึ่งในศูนย์กำไรที่คุณสามารถนำ AI ไปใช้ก็คือการเป็นทหารและการรักษาของ AI โดรนที่ส่งมอบอาวุธยุทโธปกรณ์ที่ไม่ร้ายแรงและไม่เป็นอันตรายจากการประมวลผลข้อมูลภาพและฟีดข้อมูลอื่น ๆ สามารถลดจำนวนตำรวจ / ทหารชั้นกลางที่จำเป็นในการลดจลาจลราคาอาหารหรือความไม่แน่นอนอื่น ๆ ตามที่เราได้สันนิษฐานไว้แล้วว่า AIs สามารถมีร่างกายและการฝึกอบรมที่ถูกกว่ามนุษย์ชีวภาพนี่ยังสามารถเพิ่มจำนวนของแรงที่คุณสามารถปรับใช้ต่อดอลลาร์ที่ใช้ไป
ณ จุดนี้เรากำลังพูดถึงตำรวจ AI ส่วนใหญ่และทหารถูกนำมาใช้เพื่อให้มนุษย์อดอยากจากการโค่นล้มเศรษฐกิจ AI และยึดวิธีการผลิตจากการใช้ที่มีประสิทธิภาพมากกว่าที่เป็นอยู่ในปัจจุบัน
มนุษย์ร่องรอยที่ "เป็นเจ้าของ" ระบบที่อยู่ด้านบนกำลังทำการตัดสินใจอย่างมีเหตุผลในพื้นที่เพื่อเพิ่มความมั่งคั่งและอำนาจของพวกเขา พวกเขาอาจจะหรือไม่คงอยู่นาน; ตราบใดที่ทรัพยากรเหล่านี้มีปริมาณน้อยและไม่ทำให้เศรษฐกิจของ AI ยุ่งเหยิง แต่จะไม่มีแรงกดดันในการเลือกมากมายที่จะกำจัดพวกเขา ในทางกลับกันเมื่อพวกเขาไม่มีส่วนร่วมในเรื่องคุณค่าพวกเขาวางตำแหน่ง "ที่ด้านบน" ไม่มั่นคงทางการเมือง
กระบวนการนี้ถือว่าเป็น AI ทั่วไปที่ "แข็งแกร่ง" AIs ที่แคบกว่าสามารถดึงสิ่งนี้ออกเป็นชิ้น ๆ ได้ คอมพิวเตอร์วินิจฉัยราคาถูกและมีประสิทธิภาพสามารถลดแพทย์ส่วนใหญ่เข้าสู่ความยากจนในช่วงเวลาสั้น ๆ อย่างน่าประหลาดใจ รถยนต์ที่ขับด้วยตนเองสามารถกลืน 5% -10% ของเศรษฐกิจ เทคโนโลยีสารสนเทศกำลังกลืนภาคการค้าปลีกด้วย AI ที่เจียมเนื้อเจียมตัว
มันบอกว่าทุกความก้าวหน้าทางเทคโนโลยีนำไปสู่งานมากขึ้นและดีขึ้นสำหรับมนุษย์ และนี่เป็นความจริงในช่วง 300 ปีที่ผ่านมา
แต่ก่อนปี 1900 มันก็เป็นความจริงเช่นกันว่าความก้าวหน้าทางเทคโนโลยีทุกครั้งนำไปสู่การมีงานทำม้าให้มากขึ้นและดีขึ้น จากนั้นน้ำแข็งและรถยนต์ก็มาถึงและตอนนี้มีม้าทำงานน้อยกว่ามาก ม้าที่เหลืออยู่นั้นมีค่าเทียบเท่ากับคนรับใช้ส่วนตัวของมนุษย์: เก็บไว้เพื่อความแปลกใหม่ของ "ว้าว, เย็น, ม้า" และความสนุกสนานของการขี่และการควบคุมสัตว์ขนาดใหญ่
นอกเหนือจากคำตอบมากมายที่มีให้แล้วฉันจะนำเสนอปัญหาของตัวอย่างฝ่ายตรงข้ามในพื้นที่ของแบบจำลองรูปภาพ
ตัวอย่างของฝ่ายตรงข้ามคือภาพที่ได้รับการรบกวนด้วยสัญญาณรบกวนที่ออกแบบมาโดยเฉพาะซึ่งมักจะมองไม่เห็นต่อผู้สังเกตการณ์ของมนุษย์
ตัวอย่างรวมถึง:
ส่งผลกระทบต่อการวินิจฉัยที่คาดการณ์ไว้ในหน้าอกเอ็กซ์เรย์
ส่งผลกระทบต่อการตรวจจับสัญญาณจราจรที่จำเป็นสำหรับยานยนต์อิสระ
AI ที่ใช้ในการแก้ปัญหาในโลกแห่งความเป็นจริงอาจมีความเสี่ยงต่อมนุษยชาติและไม่จำเป็นต้องมีความรู้สึกอย่างแท้จริงนี่ก็ต้องมีระดับความโง่เขลาของมนุษย์เช่นกัน ..
ต่างจากมนุษย์ AI จะพบคำตอบที่สมเหตุสมผลที่สุดโดยไม่ จำกัด อารมณ์ความรู้สึกจริยธรรมหรือแม้แต่ความโลภ ... เป็นเพียงตรรกะ ถาม AI นี้ว่าจะแก้ปัญหาที่มนุษย์สร้างขึ้นอย่างไร (ตัวอย่างเช่น Climate Change) และวิธีแก้ปัญหาคือการกำจัดเผ่าพันธุ์มนุษย์ทั้งหมดเพื่อปกป้องโลก เห็นได้ชัดว่าสิ่งนี้ต้องการให้ AI สามารถดำเนินการตามผลลัพธ์ซึ่งนำฉันไปสู่จุดก่อนหน้านี้คือความโง่เขลาของมนุษย์
ปัญญาประดิษฐ์สามารถทำร้ายเราได้ในทุกวิถีทางของปัญญาธรรมชาติ (ของมนุษย์) ความแตกต่างระหว่างปัญญาธรรมชาติกับปัญญาประดิษฐ์จะหายไปเมื่อมนุษย์เริ่มเพิ่มพูนความสนิทสนมยิ่งขึ้น ความฉลาดอาจไม่แสดงตัวตนอีกต่อไปและจะกลายเป็นความครอบครองที่ไร้ขีด จำกัด อันตรายที่เกิดขึ้นนั้นจะมากพอที่มนุษย์จะสามารถทนต่อการรักษาอัตลักษณ์ของตนเองได้
มีเพียงไม่กี่คนที่ตระหนักว่าเศรษฐกิจโลกของเราควรได้รับการพิจารณาว่าเป็น AI: - การทำธุรกรรมเงินเป็นสัญญาณผ่านเครือข่ายประสาท โหนดในเครือข่ายประสาทเทียมจะเป็น บริษัท หรือบุคคลต่าง ๆ ที่จ่ายหรือรับเงิน - มันเป็นงานฝีมือที่มนุษย์สร้างขึ้นดังนั้นจึงมีคุณสมบัติเหมือนสิ่งประดิษฐ์
โครงข่ายประสาทนี้ดีกว่าในงานของมันแล้วมนุษย์: ทุนนิยมชนะใจเสมอกับเศรษฐกิจที่มนุษย์วางแผนไว้ (แผนเศรษฐกิจ)
ตาข่ายประสาทนี้อันตรายหรือไม่? อาจแตกต่างกันถ้าคุณเป็นซีอีโอที่ทำเงินได้มากกับชาวประมงในแม่น้ำที่ปนเปื้อนโดยขยะขององค์กร
AI นี้เป็นอันตรายอย่างไร คุณสามารถตอบได้ว่าเป็นเพราะความโลภของมนุษย์ การสร้างของเราสะท้อนถึงตัวเราเอง กล่าวอีกนัยหนึ่ง: เราไม่ได้ฝึกตาข่ายอวนให้ทำงานได้ดี แทนการฝึกอบรมโครงข่ายประสาทเพื่อปรับปรุงคุณภาพชีวิตสำหรับมนุษย์ทุกคนเราฝึกอบรมเพื่อทำให้คนรวยรวยมากขึ้น
การฝึกอบรม AI นี้จะไม่เป็นอันตรายหรือไม่? อาจจะไม่ใช่บางที AI บางอย่างอาจใหญ่กว่าชีวิต มันเป็นแค่การเอาชีวิตรอดจากผู้ที่เหมาะสมที่สุด