ปัญญาประดิษฐ์จะทำร้ายเราได้อย่างไร


50

เรามักจะได้ยินว่าปัญญาประดิษฐ์อาจทำอันตรายหรือฆ่ามนุษย์ดังนั้นจึงอาจเป็นอันตรายได้

ปัญญาประดิษฐ์จะทำร้ายเราได้อย่างไร


6
นี่เป็นเรื่องที่ค่อนข้างกว้างเนื่องจากมีหลายเหตุผลและสถานการณ์สมมติที่ AI อาจเป็นอันตรายได้ ตัวอย่างเช่น DuttaA แนะนำข้างต้นมนุษย์อาจออกแบบระบบอาวุธอัจฉริยะที่ตัดสินใจว่าจะกำหนดเป้าหมายอย่างไรและนี่เป็นความกังวลอย่างแท้จริงเนื่องจากเป็นไปได้ที่จะใช้ AI AI แบบแคบ บางทีให้บริบทเพิ่มเติมเกี่ยวกับความกลัวเฉพาะที่คุณต้องการเข้าใจโดยการอ้างอิงหรือเชื่อมโยงข้อกังวลเฉพาะที่คุณได้อ่าน (โปรดใช้การแก้ไข )
Neil Slater

4
@ NeilSlater ใช่มันอาจจะกว้างเกินไป แต่ฉันคิดว่าคำตอบนี้ai.stackexchange.com/a/15462/2444ให้เหตุผลบางประการที่น่าเชื่อถือ ฉันแก้ไขคำถามเพื่อลบข้อสันนิษฐานที่ผิดพลาด
nbro

2
คำถามนี้เกี่ยวกับ "superintelligence" หรือ AI โดยเฉพาะหรือไม่? (ตัวอย่างเช่นถ้าสมมุติว่ามีความ
ฉลาดทางสติปัญญาดังนั้น

@DukeZhou The OP ไม่ได้กล่าวถึงความฉลาดหลักแหลมอย่างชัดเจน แต่ฉันคิดว่าเขาพูดถึงสิ่งที่ถือว่าเป็น AI รวมถึง SI ด้วย
nbro

3
ก่อนอื่นให้ถามว่าหน่วยสืบราชการลับปกติจะทำร้ายคุณได้อย่างไร? คำตอบนั้นเหมือนกัน
J ...

คำตอบ:


46

TL; DR

มีจำนวนมากที่ถูกต้องด้วยเหตุผลที่ว่าทำไมคนอาจกลัว (หรือดีกว่ามีความกังวลเกี่ยวกับ ) AI ไม่ได้ทั้งหมดที่เกี่ยวข้องกับหุ่นยนต์และสถานการณ์เลวร้าย

เพื่อแสดงให้เห็นถึงข้อกังวลเหล่านี้ได้ดียิ่งขึ้นฉันจะพยายามแบ่งพวกเขาออกเป็นสามหมวดหมู่

AI ที่มีสติ

นี่คือประเภทของ AI ที่คำถามของคุณอ้างถึง AI ที่มีสติปัญญาชาญฉลาดที่จะทำลาย / เป็นทาสของมนุษยชาติ สิ่งนี้ส่วนใหญ่นำมาให้เราโดยนิยายวิทยาศาสตร์ บางตัวอย่างฮอลลีวู้ดเด่น"เทอร์มิ" , "The Matrix" , "อายุ Ultron" นวนิยายที่มีอิทธิพลมากที่สุดเขียนโดยไอแซคอาซิมอฟและเรียกว่า"ชุดหุ่นยนต์" (ซึ่งรวมถึง"I หุ่นยนต์"ซึ่งดัดแปลงเป็นภาพยนตร์ด้วย)

หลักฐานพื้นฐานภายใต้ผลงานเหล่านี้ส่วนใหญ่คือ AI จะพัฒนาจนถึงจุดที่มันมีสติและจะเหนือกว่ามนุษย์ในด้านสติปัญญา ในขณะที่ภาพยนตร์ฮอลลีวูดส่วนใหญ่มุ่งเน้นไปที่หุ่นยนต์และการต่อสู้ระหว่างพวกเขากับมนุษย์ไม่ได้ให้ความสำคัญกับ AI ที่แท้จริง (เช่น "สมอง" ที่ควบคุมพวกเขา) ในฐานะที่เป็นบันทึกด้านข้างเนื่องจากการเล่าเรื่อง AI มักจะแสดงให้เห็นว่าเป็นซูเปอร์คอมพิวเตอร์ควบคุมทุกอย่าง (เพื่อให้ตัวละครเอกมีเป้าหมายที่เฉพาะเจาะจง) มีการสำรวจไม่เพียงพอใน "ปัญญาที่กำกวม" (ซึ่งฉันคิดว่าเป็นจริงมากขึ้น)

ในโลกแห่งความเป็นจริง AI มุ่งเน้นไปที่การแก้ปัญหาเฉพาะงาน! ตัวแทน AI ที่มีความสามารถในการแก้ปัญหาจากโดเมนที่แตกต่างกัน (เช่นการเข้าใจคำพูดและการประมวลผลภาพและการขับรถและ ... - เหมือนมนุษย์) เรียกว่าปัญญาประดิษฐ์ทั่วไปและเป็นสิ่งจำเป็นสำหรับ AI ที่จะสามารถ "คิด" และกลายเป็น มีสติอยู่

ตามความเป็นจริงเราเป็นวิธี loooooooongจากปัญญาประดิษฐ์ทั่วไป! ที่ถูกกล่าวว่าไม่มีหลักฐานว่าทำไมสิ่งนี้ไม่สามารถทำได้ในอนาคต ดังนั้นในปัจจุบันแม้ว่าเราจะยังอยู่ในช่วงเริ่มต้นของ AI แต่เราก็ไม่มีเหตุผลที่จะเชื่อว่า AI จะไม่พัฒนาไปจนถึงจุดที่ฉลาดกว่ามนุษย์

การใช้ AI ด้วยเจตนาร้าย

แม้ว่า AI ที่จะพิชิตโลกเป็นหนทางไกลจากการเกิดขึ้นมีหลายเหตุผลที่ต้องคำนึงถึง AI ในปัจจุบันแต่มันก็ไม่ได้เกี่ยวข้องกับหุ่นยนต์! ประเภทที่สองที่ฉันต้องการมุ่งเน้นเพิ่มขึ้นคือการใช้ AI ในปัจจุบันที่เป็นอันตรายหลายอย่าง

ฉันจะมุ่งเน้นเฉพาะในการใช้งานเอไอที่มีวันนี้ ตัวอย่างบางส่วนของ AI ที่สามารถใช้เพื่อเจตนาร้าย:

  • DeepFake : เทคนิคในการกำหนดให้ใครบางคนเผชิญกับภาพวิดีโอของบุคคลอื่น เรื่องนี้ได้รับความนิยมเมื่อเร็ว ๆ นี้กับสื่อลามกดาราและสามารถใช้ในการสร้างข่าวปลอมและการหลอกลวง แหล่งที่มา: 1 , 2 , 3

  • ด้วยการใช้ระบบเฝ้าระวังจำนวนมากและซอฟต์แวร์จดจำใบหน้าที่สามารถจดจำใบหน้าได้นับล้านต่อวินาทีทำให้สามารถใช้ AI ในการเฝ้าระวังจำนวนมาก แม้ว่าเมื่อเราคิดว่าการเฝ้าระวังมวลที่เราคิดว่าของจีนเมืองตะวันตกมากมายเช่นลอนดอน , แอตแลนตาและเบอร์ลินเป็นหนึ่งในเมืองมากที่สุด surveilled ในโลก ประเทศจีนได้ดำเนินการต่อไปอีกขั้นโดยใช้ระบบสินเชื่อเพื่อสังคมซึ่งเป็นระบบการประเมินผลสำหรับพลเรือนซึ่งดูเหมือนจะถูกนำออกจากหน้าจอของจอร์จออร์เวลล์ในปี 1984

  • ที่มีอิทธิพลต่อผู้คนผ่านสื่อสังคม นอกเหนือจากการตระหนักถึงรสนิยมของผู้ใช้โดยมีเป้าหมายในการทำตลาดเป้าหมายและเพิ่มตำแหน่ง (การปฏิบัติร่วมกันโดย บริษัท อินเทอร์เน็ตหลายแห่ง) AI สามารถนำไปใช้โดยไม่เจตนาเพื่อโน้มน้าวให้ผู้คนโหวต (เหนือสิ่งอื่นใด) แหล่งที่มา: 1 , 2 , 3

  • แฮ็

  • แอพพลิเคชั่นทางทหารเช่นการโจมตีด้วยจมูกระบบการกำหนดเป้าหมายด้วยขีปนาวุธ

ผลเสียของ AI

หมวดหมู่นี้ค่อนข้างเป็นอัตวิสัย แต่การพัฒนา AI อาจมีผลข้างเคียงที่ไม่พึงประสงค์ ความแตกต่างระหว่างประเภทนี้และก่อนหน้านี้คือผลกระทบเหล่านี้ในขณะที่เป็นอันตรายไม่ได้กระทำโดยเจตนา ค่อนข้างเกิดขึ้นกับการพัฒนาของ AI ตัวอย่างบางส่วนคือ:

  • งานกลายเป็นซ้ำซ้อน เมื่อ AI ดีขึ้นงานจำนวนมากจะถูกแทนที่โดย AI น่าเสียดายที่มีหลายสิ่งที่ไม่สามารถทำได้เกี่ยวกับเรื่องนี้เนื่องจากการพัฒนาเทคโนโลยีส่วนใหญ่มีผลข้างเคียงนี้ (เช่นเครื่องจักรกลการเกษตรทำให้เกษตรกรจำนวนมากสูญเสียงานของพวกเขาระบบอัตโนมัติแทนที่คนงานในโรงงานจำนวนมากคอมพิวเตอร์ทำแบบเดียวกัน)

  • เสริมอคติในข้อมูลของเรา นี่เป็นหมวดหมู่ที่น่าสนใจมากเนื่องจาก AI (และโดยเฉพาะอย่างยิ่งโครงข่ายประสาทเทียม) นั้นดีพอ ๆ กับข้อมูลที่ได้รับการฝึกฝนและมีแนวโน้มที่จะขยายเวลาและแม้แต่เพิ่มอคติทางสังคมรูปแบบต่าง ๆ ที่มีอยู่แล้วในข้อมูล มีตัวอย่างมากมายของเครือข่ายที่แสดงพฤติกรรมเหยียดเชื้อชาติและผู้หญิง แหล่งที่มา: 1 , 2 , 3 , 4


4
ฉันไม่เข้าใจว่าทำไม "งานกลายเป็นงานซ้ำซ้อน" เป็นปัญหาที่ร้ายแรง โลกจะสวยงามแค่ไหนถ้าไม่มีใคร (หรืออย่างน้อยคนส่วนใหญ่) ไม่จำเป็นต้องทำงานและสามารถมุ่งความสนใจไปที่งานอดิเรกและเพลิดเพลินกับชีวิตแทน
kukis

4
@kukis คุณจะได้อาหารบ้านและอื่น ๆ โดยไม่มีงานได้อย่างไรเว้นแต่คุณจะรวยอยู่แล้ว? งานหมายถึงความอยู่รอดสำหรับคนส่วนใหญ่
nbro

6
เกี่ยวกับงานที่ซ้ำซ้อนดูเหมือนว่าเราสามารถทำอะไรบางอย่างกับมันได้เช่นปรับปรุงแบบจำลองทางเศรษฐกิจของเราโดยไม่ต้องพึ่งพามนุษย์ที่มีงานทำ ฉันหมายความว่าถ้าระบบเศรษฐกิจของเราพังลงเมื่อถูกน้ำท่วมด้วยแรงงานราคาถูกจำนวนมากพวกเขาก็มีข้อบกพร่องอย่างเห็นได้ชัด และเนื่องจากเราคาดว่าข้อบกพร่องนี้จะเป็นอันตรายในอนาคตอันใกล้ควรจะได้รับการแก้ไข
Nat

2
อีกตัวอย่างของการที่ AI อาจทำให้เกิดปัญหาที่สำคัญคือการซื้อขายหุ้น การซื้อขายหุ้นส่วนใหญ่ในทุกวันนี้ทำได้โดยการแข่งขันของ AI ที่มากขึ้นซึ่งสามารถตอบสนองได้เร็วกว่าผู้ค้ามนุษย์ แต่ถึงจุดที่แม้แต่คนที่เขียนพวกเขาก็ไม่จำเป็นต้องเข้าใจเหตุผลที่ AI เหล่านี้ทำการตัดสินใจและมีผลกระทบร้ายแรงต่อตลาดจากอัลกอริธึมการคาดการณ์หุ้นผิดพลาด
Darrel Hoffman

8
@ พัฒนาไม่ใช่ทุกงานที่ AI พยายามแทนที่คือ "ดอกเบี้ยต่ำ" ฉันยืนยันว่ามีงานที่มีความต้องการสูงจำนวนมากที่สามารถแทนที่ได้ในอนาคต (ไม่ไกลมาก) ตัวอย่างบางส่วนเป็นแพทย์ผู้ค้าและนักบิน หาก AI ก้าวหน้าและวินิจฉัยโรคได้ดีขึ้นเรื่อย ๆ คงไม่มีเหตุผลที่จะคิดว่างานแพทย์จะถูกลดทอนลง
Djib2011

14

ในระยะสั้น

  • อุบัติเหตุทางกายภาพเช่นเนื่องจากเครื่องจักรในอุตสาหกรรมยานยนต์เครื่องบินขับรถด้วยตนเอง โดยเฉพาะอย่างยิ่งในกรณีที่มีสถานการณ์ที่ผิดปกติเช่นสภาพอากาศเลวร้ายหรือเซ็นเซอร์ล้มเหลว โดยทั่วไป AI จะทำงานได้ไม่ดีภายใต้เงื่อนไขที่ไม่ได้รับการทดสอบอย่างกว้างขวาง
  • ผลกระทบทางสังคมเช่นการลดความพร้อมในการทำงานอุปสรรคสำหรับผู้ด้อยโอกาส เงินให้สินเชื่อ, ประกัน, ทัณฑ์บน
  • เอ็นจิ้นการแนะนำกำลังจัดการกับเรามากขึ้นเรื่อย ๆ เพื่อเปลี่ยนพฤติกรรมของเรา (รวมถึงเสริมฟอง "โลกใบเล็ก" ของเราเอง) เอ็นจิ้นการแนะนำมักแสดงเนื้อหาที่ไม่เหมาะสมในเด็ก ๆ หลายประเภทบ่อยครั้งเนื่องจากผู้สร้างเนื้อหา (เช่นบน YouTube) ใช้คำหลักที่ถูกต้องในการบรรจุคำเพื่อให้ดูเป็นมิตรกับเด็ก
  • การยักยอกทางการเมือง ...พอพูดแล้วฉันคิดว่า
  • deniability เป็นไปได้ของการบุกรุกความเป็นส่วนตัว ตอนนี้ที่ AI สามารถอ่านอีเมลของคุณและแม้กระทั่งโทรออกหาคุณมันเป็นเรื่องง่ายที่ใครบางคนจะให้มนุษย์กระทำการกับข้อมูลส่วนบุคคลของคุณและอ้างว่าพวกเขามีคอมพิวเตอร์ทำ
  • เปลี่ยนสงครามให้กลายเป็นวิดีโอเกมนั่นคือแทนที่ทหารด้วยเครื่องจักรที่ถูกควบคุมจากระยะไกลโดยคนที่ไม่ได้อยู่ในอันตรายและถูกปลดออกจากการบาดเจ็บล้มตายของเขา / เธอ
  • ขาดความโปร่งใส เราไว้วางใจเครื่องจักรในการตัดสินใจด้วยวิธีการเพียงเล็กน้อยในการได้รับเหตุผลที่อยู่เบื้องหลังการตัดสินใจ
  • การใช้ทรัพยากรและมลพิษ นี่ไม่ใช่แค่ปัญหา AI แต่การปรับปรุงทุกอย่างใน AI กำลังสร้างความต้องการข้อมูลขนาดใหญ่มากขึ้นและรวมกันหน่วยความจำเหล่านี้ทำให้ความต้องการด้านการจัดเก็บการประมวลผลและระบบเครือข่ายเพิ่มขึ้น นอกเหนือจากการใช้พลังงานไฟฟ้าและแร่ธาตุที่หายากแล้วโครงสร้างพื้นฐานจะต้องถูกกำจัดหลังจากอายุการใช้งานยาวนานหลายปี
  • การเฝ้าระวัง - ด้วยความแพร่หลายของสมาร์ทโฟนและอุปกรณ์การฟังทำให้มีการขุดข้อมูลทองคำ แต่มากเกินกว่าจะลอดผ่านทุกชิ้นส่วน รับ AI เพื่อกรองมันแน่นอน!
  • ความปลอดภัยทางไซเบอร์ - อาชญากรไซเบอร์ใช้ประโยชน์จาก AI เพิ่มขึ้นเพื่อโจมตีเป้าหมายของพวกเขา

ฉันไม่ได้พูดถึงสิ่งเหล่านี้ทั้งหมดแล้วหรือยัง

ระยะยาว

แม้ว่าจะไม่มีเส้นแบ่งที่ชัดเจนระหว่าง AI และ AGI แต่ในส่วนนี้จะเกี่ยวกับสิ่งที่เกิดขึ้นเมื่อเราไปยัง AGI ต่อไป ฉันเห็นทางเลือกสองทาง:

  • ไม่ว่าเราจะพัฒนา AGI อันเป็นผลมาจากความเข้าใจที่ดีขึ้นเกี่ยวกับธรรมชาติของสติปัญญา
  • หรือเราตบอะไรบางอย่างที่ดูเหมือนว่าจะใช้งานได้ แต่เราไม่เข้าใจดีมากเหมือนตอนเรียนรู้เครื่องจักรมากตอนนี้

ในกรณีแรกถ้า AI "ไปโกง" เราสามารถสร้าง AIs อื่น ๆ เพื่อเอาชนะและทำให้เป็นกลาง ในกรณีที่สองเราทำไม่ได้และเราถึงวาระแล้ว AIs จะเป็นรูปแบบชีวิตใหม่และเราอาจสูญพันธุ์

นี่คือปัญหาที่อาจเกิดขึ้น:

  • คัดลอกและวาง. ปัญหาหนึ่งที่เกิดขึ้นกับ AGI ก็คือมันสามารถทำงานบนคอมพิวเตอร์เดสก์ท็อปได้ซึ่งสร้างปัญหาได้หลายประการ:
    • สคริปต์ Kiddies - ผู้คนสามารถดาวน์โหลด AI และตั้งค่าพารามิเตอร์ในแบบทำลายล้างได้ เกี่ยวเนื่อง
    • กลุ่มอาชญากรหรือผู้ก่อการร้ายจะสามารถกำหนดค่า AI ตามความชอบ คุณไม่จำเป็นต้องค้นหาผู้เชี่ยวชาญในการทำระเบิดหรือ bioweapons หากคุณสามารถดาวน์โหลด AI บอกให้ทำวิจัยและให้คำแนะนำทีละขั้นตอน
    • AI จำลองตัวเอง - มีเกมคอมพิวเตอร์มากมายเกี่ยวกับเรื่องนี้ AI แบ่งหลวมและกระจายเหมือนไวรัส พลังการประมวลผลที่มากขึ้นยิ่งสามารถป้องกันตัวเองและแพร่กระจายได้มากขึ้น
  • การรุกรานของทรัพยากรคอมพิวเตอร์ มีความเป็นไปได้สูงที่พลังการคำนวณจะเป็นประโยชน์ต่อ AI AI อาจซื้อหรือขโมยทรัพยากรเซิร์ฟเวอร์หรือทรัพยากรของเดสก์ท็อปและอุปกรณ์มือถือ เมื่อถึงจุดสุดยอดสิ่งนี้อาจหมายความว่าอุปกรณ์ทั้งหมดของเราไม่สามารถใช้งานได้ซึ่งจะทำให้เกิดความเสียหายบนโลก. ทันที มันอาจหมายถึงปริมาณการใช้ไฟฟ้าจำนวนมาก (และมันก็ยากที่จะ "ดึงปลั๊ก" เพราะโรงไฟฟ้าควบคุมด้วยคอมพิวเตอร์!)
  • โรงงานอัตโนมัติ AGI ที่ต้องการได้รับสถานะทางกายภาพมากขึ้นในโลกสามารถเข้ายึดโรงงานเพื่อผลิตหุ่นยนต์ที่สามารถสร้างโรงงานใหม่และสร้างร่างกายให้เป็นของตัวเอง
  • สิ่งเหล่านี้เป็นข้อพิจารณาทางปรัชญา แต่บางคนก็โต้แย้งว่า AI จะทำลายสิ่งที่ทำให้เราเป็นมนุษย์:
    • ความด้อยกว่า จะเกิดอะไรขึ้นถ้าหน่วยงาน AI จำนวนมากฉลาดขึ้นเร็วขึ้นน่าเชื่อถือและสร้างสรรค์มากกว่ามนุษย์ที่ดีที่สุด
    • ความปราศจากจุดหมาย ด้วยหุ่นยนต์แทนที่ความต้องการแรงงานทางกายภาพและ AIs แทนที่ความต้องการแรงงานทางปัญญาเราจะไม่มีอะไรทำจริง ๆ ไม่มีใครที่จะได้รับรางวัลโนเบลอีกครั้งเพราะ AI จะอยู่ข้างหน้า ทำไมถึงได้รับการศึกษาตั้งแต่แรก?
    • การปลูกพืชเชิงเดี่ยว / ความซบเซา - ในสถานการณ์ต่าง ๆ (เช่นเดียวกับ "ผู้มีอำนาจเผด็จการ" AGI) สังคมอาจกลายเป็นรูปแบบถาวรโดยไม่มีความคิดใหม่ ๆ หรือการเปลี่ยนแปลงใด ๆ (น่าพอใจแม้ว่ามันจะเป็น) โดยทั่วไปBrave New World

ฉันคิดว่า AGI กำลังจะมาถึงและเราจำเป็นต้องคำนึงถึงปัญหาเหล่านี้เพื่อที่เราจะสามารถลดปัญหาได้


1
ฉันคิดว่า AI ชนิดหนึ่งที่สามารถสร้างโรงงานใหม่เพื่อสร้างหุ่นยนต์สำหรับตัวเองนั้นอยู่ไกลออกไป Modern "AI" เป็นเพียงการจดจำรูปแบบที่ซับซ้อนจริงๆ
user253751

ฉันพูดว่า "ระยะยาว" และ "AGI" AGI เป็นคำนิยามที่ดีเกินกว่าการจดจำรูปแบบที่ซับซ้อน และถึงแม้ว่า "การจดจำรูปแบบที่ซับซ้อน" นั้นเป็นสิ่งที่ใช้กันทั่วไปในแอปพลิเคชันในโลกแห่งความจริง แต่ก็มีงานมากมายในทิศทางอื่น ๆ (โดยเฉพาะอย่างยิ่งปัญหาการสลายตัว / การวางแผนปฏิบัติการซึ่ง IMO )
Artelius

8

นอกเหนือจากคำตอบอื่น ๆ ฉันต้องการเพิ่มให้กับตัวอย่างโรงงานคุกกี้ของ nuking:

การเรียนรู้ด้วยเครื่องจักร AIs พยายามที่จะบรรลุเป้าหมายที่มนุษย์อธิบายไว้ ตัวอย่างเช่นมนุษย์สร้าง AI ที่ทำงานโรงงานคุกกี้ เป้าหมายที่พวกเขาใช้คือการขายคุกกี้ให้ได้มากที่สุดเพื่อให้ได้กำไรมากที่สุด

ตอนนี้ลองนึกภาพ AI ที่มีพลังเพียงพอ AI นี้จะสังเกตุเห็นว่าถ้าเขาทำนิวเคลียร์โรงงานคุกกี้อื่น ๆ ทุกคนจะต้องซื้อคุกกี้ในโรงงานของเขาทำให้ยอดขายเพิ่มขึ้นและผลกำไรที่สูงขึ้น

ดังนั้นข้อผิดพลาดของมนุษย์ที่นี่ไม่มีโทษสำหรับการใช้ความรุนแรงในอัลกอริทึม สิ่งนี้ถูกมองข้ามได้ง่ายเพราะมนุษย์ไม่ได้คาดหวังให้อัลกอริทึมสรุป


8
นี่ทำให้ฉันนึกถึงตัวอย่างของโลกแห่งความจริงที่ฉันเห็นบน reddit เมื่อมีคนฝึก AI เพื่อปีนบันไดใน Unity มันค้นพบว่ามันสามารถกดลงบนพื้นด้วยแรงมากและฟิสิกส์ก็จะผิดพลาดทำให้มันลอยขึ้นไปในอากาศและเร็วที่สุดขึ้นไปข้างบน
GammaGames

2
หรือแย่กว่านั้นคือตัดสินใจว่ามนุษย์ทำมาจากอะตอมที่น่าจะใช้ทำคุกกี้ได้ดีขึ้น
nick012000

ฉันเคยได้ยินเรื่องนี้มาก่อน หนึ่งในความล้มเหลวในการทำนายวันโลกาวินาศของ AI คือเราไม่สามารถคาดการณ์ได้ว่า AI จะทำอะไร เป็นไปได้อย่างสิ้นเชิงที่ AI จะยอมรับว่าการอบ บริษัท คุกกี้อื่น ๆ อาจสลัดเศรษฐกิจโลกและทำลายความต้องการที่อาจเกิดขึ้นกับคุกกี้ ... กฎหมายเศรษฐศาสตร์อุปสงค์และอุปทาน
Zakk Diaz

8

สถานการณ์ที่ฉันชอบสำหรับการทำร้ายโดย AI นั้นไม่ได้เกี่ยวข้องกับความฉลาดหลักแหลม แต่มีไหวพริบต่ำ โดยเฉพาะสารที่หนาสีเทาสมมติฐาน

นี่คือที่กระบวนการอัตโนมัติลอกเลียนแบบตัวเองทำงานอาละวาดและแปลงทรัพยากรทั้งหมดเป็นสำเนาของตัวเอง

ประเด็นคือ AI ไม่ได้ "ฉลาด" ในแง่ของการมีสติปัญญาระดับสูงหรือปัญญาทั่วไป - มันเป็นสิ่งที่ดีมากในสิ่งเดียวและมีความสามารถในการทำซ้ำอย่างชี้แจง


3
FWIW มนุษย์มีสีเทาหนาอยู่แล้ว เราเห็นแก่สีเทา goo ที่ไม่ต้องการถูกแทนที่ด้วย goo สีเทาที่มีประสิทธิภาพยิ่งขึ้น
user253751

1
@immibis แน่นอนเป็นมุมมองทางปรัชญาไม่ใช่ความจริง มีผู้คนมากมายที่แยกแยะความแตกต่างระหว่างมนุษย์กับเครื่องจักรที่จำลองตัวเอง / พึ่งพาตนเองได้ ภาพยนตร์ซอมบี้จะไม่ประสบความสำเร็จถ้าคนส่วนใหญ่มีความหมายของคุณในใจ =)
Stian Yttervik

1
@immibis คุณอ่านบทความ goo สีเทาใน Wikipediaที่คำตอบนี้อ้างอิงหรือไม่ คำนี้หมายถึงเครื่องที่ไม่ฉลาด (นาโน) กำลังเคลื่อนที่อาละวาดไม่ใช่พฤติกรรมที่ฉลาด ดังนั้นฉันจะบอกว่าไม่มนุษย์ไม่ใช่ (และไม่ใช่ AI) เนื่องจากเราไม่ได้กิน Albert Einstein เมื่อเราทำได้
kubanczyk

@kancanczyk ความหมายพื้นฐานของคำว่า "ปัญญา" ดูเหมือนจะเข้าใจผิดกันอย่างกว้างขวางทั้งในด้านวิชาการและประชาชนทั่วไป ความฉลาดเป็นคลื่นความถี่โดยทั่วไปสัมพันธ์ (กับกลไกการตัดสินใจอื่น ๆ ) และขึ้นอยู่กับประโยชน์ของการตัดสินใจใด ๆ ในบริบทของปัญหา ดังนั้นสารที่หนาสีเทาจะฉลาดเพียงแค่ว่าสติปัญญาจะถูก จำกัด และแคบ
DukeZhou

5

ฉันจะบอกว่าภัยคุกคามที่แท้จริงที่ยิ่งใหญ่ที่สุดคือความไม่สมดุล / รบกวนที่เราเห็นอยู่แล้ว การเปลี่ยนแปลงของการนำ 90% ของประเทศออกจากงานจริงและผลลัพธ์ (ซึ่งจะกระจายความมั่งคั่งที่ไม่สม่ำเสมอมากขึ้น) จะน่ากลัวถ้าคุณคิดว่าพวกเขาผ่าน


2
ผู้คนกล่าวว่าสิ่งเดียวกันระหว่างการปฏิวัติอุตสาหกรรมซึ่งทำให้งานเกษตรกรรมส่วนใหญ่ซ้ำซ้อน ในขณะที่คุณอาจไม่ผิดและเป็นสิ่งที่ฉันกังวลเกี่ยวกับตัวเองการวิจัยการศึกษาแนวโน้มแสดงให้เห็นว่านี่อาจไม่เป็นปัญหาและเป็นงานใหม่ที่น่าจะเกิดขึ้น
Programmdude

@Programmdude - ฉันคิดว่ามีความแตกต่างพื้นฐานระหว่างการปฏิวัติอุตสาหกรรมและแม้กระทั่งการกำจัดงานเลขานุการผ่านการถือกำเนิดของ P กับสิ่งที่จะเกิดขึ้นในทศวรรษที่ผ่านมา
Mayo

2
@Programmdude และผู้คนพูดถูก การปฏิวัติอุตสาหกรรมได้เปลี่ยนแปลงทุกอย่างเกี่ยวกับการใช้ชีวิตของผู้คนมันก่อกวนอย่างมากในแง่ของการกระจายความมั่งคั่งและความสามารถของผู้คนที่มีรายได้จากฟาร์ม จากมุมมองอื่น ๆ : เจ้าของทาสมองย้อนกลับไปในอีกไม่กี่ร้อยปีข้างหน้าในอนาคตอาจจะไม่เห็นผลกระทบของ AI ในช่วงเวลานี้ซึ่งก่อให้เกิดความเสียหายเนื่องจากสถานการณ์ดังกล่าวเกิดขึ้น
Bill K

@BILLK ฉันอยู่กับคุณจนถึงตอนนี้เกี่ยวกับเจ้าของทาส คุณรู้หรือไม่ว่าเอไอเอสไม่รู้ตัวใช่มั้ย
เรย์

@ เรย์ฉันไม่ได้หมายถึงเอไอเอสฉันหมายถึงคนที่ควบคุมเอไอเอส (และดังนั้นจึงมีทรัพย์สมบัติทั้งหมด) และจริงๆแล้วมันเป็นเพียงวิธีที่จะชี้ให้เห็นว่าสิ่งต่าง ๆ อาจจะแตกต่างจากเราอย่างเข้าใจไม่ได้ ไม่รู้สึกว่ามองต่างไป
Bill K

5

ฉันมีตัวอย่างที่ไปในทิศทางตรงกันข้ามกับความกลัวของประชาชน แต่เป็นของจริงมากซึ่งฉันเห็นแล้วเกิดขึ้น ไม่ใช่เฉพาะ AI แต่ฉันคิดว่ามันจะแย่ลงผ่าน AI มันเป็นปัญหาของมนุษย์ที่เชื่อมั่นในข้อสรุปของ AIในการใช้งานที่สำคัญอย่างสุ่มสี่สุ่มห้า

เรามีหลายพื้นที่ที่ผู้เชี่ยวชาญของมนุษย์ควรตัดสินใจ ยกตัวอย่างยาเราควรให้ยา X หรือยา Y สถานการณ์ที่ฉันมีอยู่ในใจคือปัญหาที่ซับซ้อนบ่อยครั้ง (ในแง่ของ Cynefin) ซึ่งเป็นสิ่งที่ดีจริงๆที่มีใครบางคนให้ความสนใจอย่างใกล้ชิดและใช้ความเชี่ยวชาญเป็นอย่างมากและผลลัพธ์ก็สำคัญ

มีความต้องการให้ข้อมูลทางการแพทย์ในการเขียนระบบสนับสนุนการตัดสินใจสำหรับปัญหาประเภทนี้ในยา (และฉันคิดว่าเป็นประเภทเดียวกันในโดเมนอื่น ๆ ) พวกเขาทำอย่างดีที่สุด แต่ความคาดหวังอยู่เสมอว่าผู้เชี่ยวชาญของมนุษย์จะพิจารณาข้อเสนอแนะของระบบเช่นเดียวกับความคิดเห็นอีกหนึ่งเมื่อตัดสินใจ ในหลายกรณีมันจะไม่รับผิดชอบในการสัญญาสิ่งอื่นใดเนื่องจากสถานะของความรู้และทรัพยากรที่มีให้กับนักพัฒนา ตัวอย่างทั่วไปคือการใช้คอมพิวเตอร์ช่วยในการมองเห็นด้วยรังสี: ผู้ป่วยได้รับ CT scan และ AI ต้องประมวลผลภาพและตัดสินว่าผู้ป่วยมีเนื้องอกหรือไม่

แน่นอนว่า AI นั้นไม่สมบูรณ์แบบ แม้จะวัดกับมาตรฐานทองคำได้ แต่ก็ไม่เคยได้รับความแม่นยำ 100% แล้วก็มีทุกกรณีที่มันทำงานได้ดีกับตัวชี้วัดเป้าหมายของตัวเอง แต่ปัญหานั้นซับซ้อนมากจนตัวชี้วัดเป้าหมายไม่ได้ดี - ฉันไม่สามารถคิดถึงตัวอย่างในบริบท CT แต่ฉันเดา เราเห็นได้ที่นี่ใน SE ซึ่งอัลกอริธึมนิยมความนิยมในโพสต์ซึ่งเป็นพร็อกซีที่ไม่สมบูรณ์สำหรับความถูกต้องจริง

คุณอาจจะอ่านย่อหน้าสุดท้ายแล้วพยักหน้ารับ "ใช่ฉันได้เรียนรู้ว่าในหลักสูตร ML ขั้นต้นเบื้องต้นที่ฉันได้เรียนไป" คาดเดาอะไร แพทย์ไม่เคยเรียนหลักสูตร ML เบื้องต้น พวกเขาไม่ค่อยมีความรู้ทางสถิติเพียงพอที่จะเข้าใจข้อสรุปของเอกสารที่ปรากฏในวารสารทางการแพทย์ เมื่อพวกเขากำลังพูดคุยกับผู้ป่วยรายที่ 27 ของพวกเขา 7 ชั่วโมงในการเปลี่ยนแปลง 16 ชั่วโมงของพวกเขาหิวโหยและหมดอารมณ์และ CT ไม่ได้ดูที่ชัดเจน แต่คอมพิวเตอร์บอกว่า "มันไม่ใช่ความร้ายกาจ" ใช้เวลาสิบนาทีในการจดจ่อกับภาพมากขึ้นหรือค้นหาตำราเรียนหรือปรึกษากับเพื่อนร่วมงาน พวกเขาเพียงแค่ไปกับสิ่งที่คอมพิวเตอร์บอกว่าขอบคุณที่ภาระทางปัญญาของพวกเขาไม่ได้พุ่งสูงขึ้นอีกครั้ง ดังนั้นพวกเขาจึงเปลี่ยนจากการเป็นผู้เชี่ยวชาญไปเป็นคนที่อ่านอะไรบางอย่างนอกจอ ที่เลวร้ายยิ่ง ในโรงพยาบาลบางแห่งผู้บริหารไม่เพียง แต่ไว้วางใจคอมพิวเตอร์เท่านั้น แต่ยังพบว่าพวกมันเป็นแพะรับบาปที่สะดวก ดังนั้นแพทย์จึงมีลางสังหรณ์ที่ไม่สอดคล้องกับผลลัพธ์ของคอมพิวเตอร์มันกลายเป็นเรื่องยากสำหรับพวกเขาที่จะทำตามลางสังหรณ์นั้นและป้องกันตัวเองว่าพวกเขาเลือกที่จะลบล้างความคิดเห็นของ AI

AIs เป็นเครื่องมือที่ทรงพลังและมีประโยชน์ แต่จะมีงานที่ไม่สามารถแทนที่เครื่องมือตัวช่วย


หากคุณกำลังมองหาตัวอย่างเพิ่มเติมความขัดแย้งรอบตัวโดยใช้การเรียนรู้ด้วยเครื่องเพื่อทำนายอัตราการลดหย่อนของผู้สมัครสำหรับการประกันตัวหรือทัณฑ์บนนั้นเป็นสิ่งที่ดี ฉันยอมรับว่าเราไม่ควรคาดหวังว่าแพทย์และผู้พิพากษาจะต้องมีระดับความเชี่ยวชาญทางสถิติที่จำเป็นในการเข้าใจ AI นอกเหนือไปจากความเชี่ยวชาญทางการแพทย์และกฎหมาย นักออกแบบ AI ควรตระหนักถึงความผิดพลาดของอัลกอริธึมและให้แนวทางที่ชัดเจนแก่ผู้ใช้ อาจบอกแพทย์ว่าให้ไปดูที่การสแกน CT แทนการให้ผลลัพธ์โดยตรง
craq

4

นี่เป็นเพียงความตั้งใจที่จะเป็นส่วนเติมเต็มให้กับคำตอบอื่น ๆ ดังนั้นฉันจะไม่พูดคุยเกี่ยวกับความเป็นไปได้ของ AI ที่พยายามเป็นทาสมนุษยชาติอย่างเต็มใจ

แต่ความเสี่ยงที่แตกต่างกันอยู่ที่นี่แล้ว ฉันจะเรียกมันว่าเทคโนโลยี unmastered ฉันได้รับการสอนวิทยาศาสตร์และเทคโนโลยีและ IMHO, AI เองไม่ได้มีแนวคิดเรื่องความดีและความชั่วหรือเสรีภาพ แต่มันถูกสร้างและใช้งานโดยมนุษย์และเนื่องจากพฤติกรรมที่ไม่สมเหตุสมผลนั้นสามารถเกี่ยวข้องได้

ฉันจะเริ่มต้นด้วยตัวอย่างชีวิตจริงที่เกี่ยวข้องกับไอทีทั่วไปมากกว่า AI ฉันจะพูดถึงไวรัสหรือมัลแวร์อื่น ๆ คอมพิวเตอร์เป็นเครื่องจักรที่ค่อนข้างโง่ที่สามารถประมวลผลข้อมูลได้อย่างรวดเร็ว ดังนั้นคนส่วนใหญ่พึ่งพาพวกเขา คน (ไม่ดี) บางคนพัฒนามัลแวร์ที่จะทำลายพฤติกรรมที่ถูกต้องของคอมพิวเตอร์ และเราทุกคนรู้ว่าพวกเขาสามารถมีผลกระทบร้ายแรงต่อองค์กรขนาดเล็กถึงขนาดกลางที่ไม่พร้อมสำหรับการสูญเสียคอมพิวเตอร์

AI ใช้คอมพิวเตอร์ดังนั้นจึงมีความเสี่ยงที่จะถูกโจมตีจากคอมพิวเตอร์ นี่คือตัวอย่างของฉันจะเป็นรถขับเคลื่อน AI เทคโนโลยีเกือบพร้อมใช้งานแล้ว แต่ลองจินตนาการถึงผลกระทบของมัลแวร์ที่ทำให้รถพยายามโจมตีผู้อื่นบนท้องถนน แม้ไม่มีการเข้าถึงโดยตรงกับรหัสของ AI ก็สามารถถูกโจมตีจากช่องด้านข้าง ตัวอย่างเช่นใช้กล้องอ่านสัญญาณสัญญาณ แต่เนื่องจากวิธีการใช้งานการเรียนรู้ของเครื่อง AI generaly จึงไม่วิเคราะห์ฉากแบบเดียวกับที่มนุษย์ทำ นักวิจัยได้แสดงให้เห็นว่าเป็นไปได้ที่จะเปลี่ยนสัญญาณในแบบที่มนุษย์ทั่วไปยังคงเห็นสัญญาณเดิม แต่ AI จะเห็นสัญญาณที่แตกต่างกัน ลองนึกภาพตอนนี้ว่าป้ายคือป้ายบอกทางบนถนน ...

สิ่งที่ฉันหมายถึงคือแม้ว่า AI จะไม่มีเจตนาชั่วร้าย แต่คนร้ายสามารถพยายามทำให้มันประพฤติตัวไม่ดีได้ และสำหรับการกระทำที่สำคัญกว่านั้นจะได้รับการมอบหมายให้ AI (ยา, รถยนต์, เครื่องบิน, ไม่พูดถึงระเบิด) ยิ่งมีความเสี่ยงสูง ฉันไม่ได้กลัว AI สำหรับตัวเอง แต่สำหรับวิธีที่มนุษย์สามารถใช้งานได้


3

ฉันคิดว่าหนึ่งในความเสี่ยงที่แท้จริงที่สุด (เช่นที่เกี่ยวข้องกับปัจจุบัน AIs ที่มีอยู่) นั้นพึ่งพา AIs ที่ไม่ได้รับการดูแลด้วยเหตุผลสองประการ

1. ระบบ AI อาจลดลง

ข้อผิดพลาดทางกายภาพในระบบ AI อาจเริ่มให้ผลลัพธ์ที่ผิดอย่างรุนแรงในภูมิภาคที่ไม่ได้ทดสอบเพราะระบบทางกายภาพเริ่มให้ค่าที่ไม่ถูกต้อง นี่คือการไถ่ถอนบางครั้งโดยการทดสอบตัวเองและซ้ำซ้อน แต่ยังต้องมีการกำกับดูแลของมนุษย์เป็นครั้งคราว

การเรียนรู้ด้วยตนเอง AIs ก็มีจุดอ่อนซอฟต์แวร์เช่นกัน - เครือข่ายน้ำหนักหรือการแสดงทางสถิติอาจเข้าใกล้จุดต่ำสุดในพื้นที่ที่พวกเขาติดอยู่กับผลลัพธ์ที่ผิดพลาดเพียงครั้งเดียว

2. ระบบ AI จะลำเอียง

โชคดีที่มีการพูดคุยกันบ่อยครั้ง แต่ก็ควรค่าแก่การกล่าวถึง: การจำแนกประเภทของอินพุตของระบบ AI นั้นมักจะลำเอียงเพราะชุดข้อมูลการฝึกอบรม / การทดสอบก็มีอคติเช่นกัน สิ่งนี้ส่งผลให้ AIs ไม่รู้จักผู้คนในบางเชื้อชาติเพื่อเป็นตัวอย่างที่ชัดเจนยิ่งขึ้น อย่างไรก็ตามมีกรณีที่เห็นได้ชัดน้อยกว่าที่อาจถูกค้นพบหลังจากเกิดอุบัติเหตุที่ไม่ดีเช่น AI ไม่ได้รับรู้ข้อมูลบางอย่างและเกิดเพลิงไหม้ในโรงงานโดยไม่ตั้งใจทำลายอุปกรณ์หรือทำร้ายผู้คน


นี่เป็นคำตอบที่ดีและร่วมสมัย "กล่องดำ" AI เช่นเครือข่ายประสาทเทียมเป็นไปไม่ได้ที่จะทำการทดสอบในลักษณะที่แน่นอนซึ่งทำให้พวกมันสามารถคาดการณ์ได้น้อยกว่า 100% - และโดยส่วนขยายนั้นเชื่อถือได้น้อยกว่า 100% เราไม่เคยรู้เลยว่า AI จะพัฒนากลยุทธ์ทางเลือกให้กับปัญหาที่กำหนดหรือไม่และกลยุทธ์ทางเลือกนี้จะส่งผลกระทบต่อเราอย่างไรและนี่เป็นปัญหาที่ใหญ่มากหากเราต้องการพึ่งพา AI สำหรับงานที่สำคัญเช่นการขับรถยนต์หรือจัดการทรัพยากร
laancelot

1

หากหุ่นยนต์คล้ายกับส่วนต่อประสานกับเครื่องจักรของมนุษย์อุปกรณ์นั้นจะเหมือนกันกับรถควบคุมระยะไกล เป็นไปได้ที่จะหารือกับผู้ปฏิบัติงานที่อยู่เบื้องหลังจอยสติ๊กและเจรจาเกี่ยวกับพฤติกรรมที่ปรารถนา หุ่นยนต์ควบคุมจากระยะไกลเป็นสิ่งประดิษฐ์ที่ปลอดภัยเพราะการกระทำของพวกเขาสามารถย้อนกลับไปหามนุษย์ได้และสามารถคาดการณ์ได้ พวกเขาสามารถใช้เพื่อปรับปรุงชีวิตประจำวันและมันตลกที่จะเล่นกับพวกเขา

ในทางตรงกันข้ามหุ่นยนต์บางตัวไม่ได้ถูกควบคุมโดยจอยสติ๊ก แต่ทำงานกับเครื่องกำเนิดลูกเต๋าภายใน ของเล่นลูกเต๋าเป็นที่รู้จักกันดีว่าเป็นบทบาททางสังคมในการพนัน แต่ก็มีความหมายที่ลึกลับเช่นกัน โดยปกติแล้วเครื่องกำเนิดแบบสุ่มจะเชื่อมโยงอย่างมากกับพฤติกรรมที่วุ่นวายซึ่งถูกควบคุมโดยกองกำลังมืดนอกอิทธิพลของมนุษย์ ลูกเต๋าอิเล็กทรอนิกส์ที่สร้างขึ้นในหุ่นยนต์และปรับปรุงด้วยอัลกอริทึมการเรียนรู้เป็นสิ่งที่ตรงกันข้ามกับอินเทอร์เฟซของเครื่องมนุษย์ แต่มันเป็นปัญหาที่อาจเกิดขึ้นเพราะหุ่นยนต์ควบคุมแบบสุ่มจะเล่นเกมกับมนุษย์ที่คาดไม่ถึง เป็นไปไม่ได้ที่จะทำนายจำนวนของลูกเต๋าชิ้นต่อไปดังนั้นหุ่นยนต์จะทำงานแบบฉับพลันเช่นกัน

คำอธิบายการเชื่อมต่อระหว่างเกมที่ควบคุมแบบสุ่มและผลกระทบทางสังคมในประโยคต่อไปนี้

เครื่องหมายคำพูด:“ ในสังคมดั้งเดิมที่ไม่ใช่นักพนันตะวันตกหลายคนอาจสวดอ้อนวอนต่อพระเจ้าเพื่อความสำเร็จและอธิบายชัยชนะและความพ่ายแพ้ในแง่ของความประสงค์ของพระเจ้า “ Binde, ต่อ "การพนันและศาสนา: ประวัติศาสตร์แห่งความสามัคคีและความขัดแย้ง" วารสารการพนันปัญหา 20 (2550): 145-165


1

ขณะนี้มนุษย์มีอยู่ในโพรงเศรษฐกิจ - นิเวศของ "สิ่งที่คิด"

AI ก็เป็นสิ่งที่คิดเช่นกันดังนั้นมันจะบุกเข้ามาในระบบนิเวศเศรษฐกิจของเรา ทั้งในด้านนิเวศวิทยาและเศรษฐศาสตร์การมีอย่างอื่นครอบครองช่องของคุณไม่ใช่แผนการที่ดีสำหรับการอยู่รอดอย่างต่อเนื่อง

การมีชีวิตอยู่รอดของมนุษย์นั้นถูกประนีประนอมโดยสิ่งนี้เป็นไปได้อย่างไร จะมีหลายวิธีที่เป็นไปได้ที่ AI อาจเป็นอันตรายต่อการอยู่รอดของมนุษย์ในรูปแบบหรือแม้กระทั่งรูปแบบชีวิตที่โดดเด่น


สมมติว่ามี AI ที่แข็งแกร่งโดยไม่มี "super จริยธรรม" ซึ่งมีราคาถูกกว่าการผลิตของมนุษย์ (รวมถึงการผลิต "ร่างกาย" หรือวิธีการจัดการกับโลก) และฉลาดหรือฉลาดกว่ามนุษย์

นี่เป็นกรณีที่เราเริ่มแข่งขันกับ AI นั้นสำหรับทรัพยากร มันจะเกิดขึ้นในระดับจุลภาค (เราจะจ้างคนหรือซื้อ / สร้าง / เช่า / จ้าง AI เพื่อแก้ปัญหานี้หรือไม่) ขึ้นอยู่กับอัตราที่ AIs กลายเป็นถูกและ / หรือฉลาดกว่าคนสิ่งนี้สามารถเกิดขึ้นได้ช้า (อาจเป็นอุตสาหกรรมในเวลา) หรือเร็วมาก

ในการแข่งขันของทุนนิยมผู้ที่ไม่ได้ย้ายไปยัง AIs ที่ถูกกว่าจบการแข่งขัน

ตอนนี้ในระยะสั้นหากข้อดีของ AI เพียงเล็กน้อยต้นทุนที่สูงของการให้ความรู้แก่มนุษย์เป็นเวลา 20 ปีที่แปลกก่อนที่พวกเขาจะกลายเป็นผลิตผลอาจทำให้กระบวนการนี้ช้าลง ในกรณีนี้มันอาจจะคุ้มค่าที่จะจ่ายค่าแรงให้กับหมอมากกว่าความอดอยากในการวินิจฉัยโรคแทนที่จะเป็น AI แต่มันอาจจะไม่คุ้มค่าที่จะจ่ายเงินกู้ยืมของนักเรียน ดังนั้นมนุษย์แพทย์ใหม่จะหยุดการฝึกอบรมอย่างรวดเร็วและแพทย์ที่มีอยู่จะยากจน จากนั้นมากกว่า 20-30 ปี AI จะแทนที่แพทย์อย่างสมบูรณ์เพื่อวัตถุประสงค์ในการวินิจฉัย

หากข้อดีของ AI มีขนาดใหญ่ก็จะเป็นไปอย่างรวดเร็ว แพทย์จะไม่คุ้มค่าที่จะจ่ายค่าแรงในระดับความยากจนเพื่อทำการวินิจฉัยของมนุษย์ คุณสามารถเห็นสิ่งที่เกิดขึ้นกับการทำฟาร์มแบบกล้ามเนื้อเมื่อทำฟาร์มแบบใช้น้ำมันเบนซิน

ในช่วงการปฏิวัติอุตสาหกรรมที่ผ่านมาความจริงที่ว่ามนุษย์ที่สามารถคิดได้หมายความว่าคุณสามารถเปลี่ยนคนงานส่วนเกินให้เป็นมนุษย์เพื่อดำเนินการอื่น สายการผลิต, งานด้านเศรษฐกิจการบริการ, การเขียนโปรแกรมคอมพิวเตอร์ ฯลฯ แต่ในรุ่นนี้ AI มีราคาถูกกว่าในการฝึกอบรมและสร้างและฉลาดหรือฉลาดกว่ามนุษย์ในงานประเภทนั้น

จากฤดูใบไม้ผลิอาหรับที่เกิดจากเอทานอลสามารถใช้พืชและพืชไร่เป็นเชื้อเพลิงทั้งเครื่องจักรและมนุษย์ เมื่อเครื่องจักรมีประสิทธิภาพมากขึ้นในแง่ของการเปลี่ยน cropland เป็นงานที่มีประโยชน์คุณจะเริ่มเห็นราคาของการปีนอาหาร โดยทั่วไปแล้วสิ่งนี้นำไปสู่การจลาจลในขณะที่ผู้คนไม่ชอบความหิวโหยจนตายและเต็มใจเสี่ยงชีวิตเพื่อโค่นล้มรัฐบาลเพื่อป้องกันสิ่งนี้

คุณสามารถทำให้คนสงบใจโดยการจัดหาอาหารที่ได้รับการอุดหนุนและสิ่งที่คล้ายกัน ตราบใดที่สิ่งนี้ไม่ได้ทำให้เศรษฐกิจทรุดโทรม (เช่นถ้าแพงพออาจส่งผลให้คุณถูกแข่งขันโดยที่อื่น ๆ ที่ไม่ได้ทำ) นี่เป็นเพียงความไม่แน่นอนทางการเมือง

อีกทางเลือกหนึ่งในระยะสั้นชนชั้นวรรณะที่ได้รับผลกำไรจากเศรษฐกิจ AI ที่มีประสิทธิภาพมากขึ้นสามารถจ่ายเงินให้กับตำรวจหรือทหารในการปราบปรามการจลาจลดังกล่าว สิ่งนี้ต้องการให้วรรณะตำรวจ / ทหารต้องอยู่ในระดับต่ำกว่าถึงกลางในระดับมาตรฐานการครองชีพเพื่อให้มั่นใจในความภักดีอย่างต่อเนื่อง - คุณไม่ต้องการให้พวกเขาเข้าร่วมก่อการจลาจล

ดังนั้นหนึ่งในศูนย์กำไรที่คุณสามารถนำ AI ไปใช้ก็คือการเป็นทหารและการรักษาของ AI โดรนที่ส่งมอบอาวุธยุทโธปกรณ์ที่ไม่ร้ายแรงและไม่เป็นอันตรายจากการประมวลผลข้อมูลภาพและฟีดข้อมูลอื่น ๆ สามารถลดจำนวนตำรวจ / ทหารชั้นกลางที่จำเป็นในการลดจลาจลราคาอาหารหรือความไม่แน่นอนอื่น ๆ ตามที่เราได้สันนิษฐานไว้แล้วว่า AIs สามารถมีร่างกายและการฝึกอบรมที่ถูกกว่ามนุษย์ชีวภาพนี่ยังสามารถเพิ่มจำนวนของแรงที่คุณสามารถปรับใช้ต่อดอลลาร์ที่ใช้ไป

ณ จุดนี้เรากำลังพูดถึงตำรวจ AI ส่วนใหญ่และทหารถูกนำมาใช้เพื่อให้มนุษย์อดอยากจากการโค่นล้มเศรษฐกิจ AI และยึดวิธีการผลิตจากการใช้ที่มีประสิทธิภาพมากกว่าที่เป็นอยู่ในปัจจุบัน

มนุษย์ร่องรอยที่ "เป็นเจ้าของ" ระบบที่อยู่ด้านบนกำลังทำการตัดสินใจอย่างมีเหตุผลในพื้นที่เพื่อเพิ่มความมั่งคั่งและอำนาจของพวกเขา พวกเขาอาจจะหรือไม่คงอยู่นาน; ตราบใดที่ทรัพยากรเหล่านี้มีปริมาณน้อยและไม่ทำให้เศรษฐกิจของ AI ยุ่งเหยิง แต่จะไม่มีแรงกดดันในการเลือกมากมายที่จะกำจัดพวกเขา ในทางกลับกันเมื่อพวกเขาไม่มีส่วนร่วมในเรื่องคุณค่าพวกเขาวางตำแหน่ง "ที่ด้านบน" ไม่มั่นคงทางการเมือง

กระบวนการนี้ถือว่าเป็น AI ทั่วไปที่ "แข็งแกร่ง" AIs ที่แคบกว่าสามารถดึงสิ่งนี้ออกเป็นชิ้น ๆ ได้ คอมพิวเตอร์วินิจฉัยราคาถูกและมีประสิทธิภาพสามารถลดแพทย์ส่วนใหญ่เข้าสู่ความยากจนในช่วงเวลาสั้น ๆ อย่างน่าประหลาดใจ รถยนต์ที่ขับด้วยตนเองสามารถกลืน 5% -10% ของเศรษฐกิจ เทคโนโลยีสารสนเทศกำลังกลืนภาคการค้าปลีกด้วย AI ที่เจียมเนื้อเจียมตัว

มันบอกว่าทุกความก้าวหน้าทางเทคโนโลยีนำไปสู่งานมากขึ้นและดีขึ้นสำหรับมนุษย์ และนี่เป็นความจริงในช่วง 300 ปีที่ผ่านมา

แต่ก่อนปี 1900 มันก็เป็นความจริงเช่นกันว่าความก้าวหน้าทางเทคโนโลยีทุกครั้งนำไปสู่การมีงานทำม้าให้มากขึ้นและดีขึ้น จากนั้นน้ำแข็งและรถยนต์ก็มาถึงและตอนนี้มีม้าทำงานน้อยกว่ามาก ม้าที่เหลืออยู่นั้นมีค่าเทียบเท่ากับคนรับใช้ส่วนตัวของมนุษย์: เก็บไว้เพื่อความแปลกใหม่ของ "ว้าว, เย็น, ม้า" และความสนุกสนานของการขี่และการควบคุมสัตว์ขนาดใหญ่


1

นอกเหนือจากคำตอบมากมายที่มีให้แล้วฉันจะนำเสนอปัญหาของตัวอย่างฝ่ายตรงข้ามในพื้นที่ของแบบจำลองรูปภาพ

ตัวอย่างของฝ่ายตรงข้ามคือภาพที่ได้รับการรบกวนด้วยสัญญาณรบกวนที่ออกแบบมาโดยเฉพาะซึ่งมักจะมองไม่เห็นต่อผู้สังเกตการณ์ของมนุษย์

ตัวอย่างรวมถึง:


0

AI ที่ใช้ในการแก้ปัญหาในโลกแห่งความเป็นจริงอาจมีความเสี่ยงต่อมนุษยชาติและไม่จำเป็นต้องมีความรู้สึกอย่างแท้จริงนี่ก็ต้องมีระดับความโง่เขลาของมนุษย์เช่นกัน ..

ต่างจากมนุษย์ AI จะพบคำตอบที่สมเหตุสมผลที่สุดโดยไม่ จำกัด อารมณ์ความรู้สึกจริยธรรมหรือแม้แต่ความโลภ ... เป็นเพียงตรรกะ ถาม AI นี้ว่าจะแก้ปัญหาที่มนุษย์สร้างขึ้นอย่างไร (ตัวอย่างเช่น Climate Change) และวิธีแก้ปัญหาคือการกำจัดเผ่าพันธุ์มนุษย์ทั้งหมดเพื่อปกป้องโลก เห็นได้ชัดว่าสิ่งนี้ต้องการให้ AI สามารถดำเนินการตามผลลัพธ์ซึ่งนำฉันไปสู่จุดก่อนหน้านี้คือความโง่เขลาของมนุษย์


0

ปัญญาประดิษฐ์สามารถทำร้ายเราได้ในทุกวิถีทางของปัญญาธรรมชาติ (ของมนุษย์) ความแตกต่างระหว่างปัญญาธรรมชาติกับปัญญาประดิษฐ์จะหายไปเมื่อมนุษย์เริ่มเพิ่มพูนความสนิทสนมยิ่งขึ้น ความฉลาดอาจไม่แสดงตัวตนอีกต่อไปและจะกลายเป็นความครอบครองที่ไร้ขีด จำกัด อันตรายที่เกิดขึ้นนั้นจะมากพอที่มนุษย์จะสามารถทนต่อการรักษาอัตลักษณ์ของตนเองได้


0

มีเพียงไม่กี่คนที่ตระหนักว่าเศรษฐกิจโลกของเราควรได้รับการพิจารณาว่าเป็น AI: - การทำธุรกรรมเงินเป็นสัญญาณผ่านเครือข่ายประสาท โหนดในเครือข่ายประสาทเทียมจะเป็น บริษัท หรือบุคคลต่าง ๆ ที่จ่ายหรือรับเงิน - มันเป็นงานฝีมือที่มนุษย์สร้างขึ้นดังนั้นจึงมีคุณสมบัติเหมือนสิ่งประดิษฐ์

โครงข่ายประสาทนี้ดีกว่าในงานของมันแล้วมนุษย์: ทุนนิยมชนะใจเสมอกับเศรษฐกิจที่มนุษย์วางแผนไว้ (แผนเศรษฐกิจ)

ตาข่ายประสาทนี้อันตรายหรือไม่? อาจแตกต่างกันถ้าคุณเป็นซีอีโอที่ทำเงินได้มากกับชาวประมงในแม่น้ำที่ปนเปื้อนโดยขยะขององค์กร

AI นี้เป็นอันตรายอย่างไร คุณสามารถตอบได้ว่าเป็นเพราะความโลภของมนุษย์ การสร้างของเราสะท้อนถึงตัวเราเอง กล่าวอีกนัยหนึ่ง: เราไม่ได้ฝึกตาข่ายอวนให้ทำงานได้ดี แทนการฝึกอบรมโครงข่ายประสาทเพื่อปรับปรุงคุณภาพชีวิตสำหรับมนุษย์ทุกคนเราฝึกอบรมเพื่อทำให้คนรวยรวยมากขึ้น

การฝึกอบรม AI นี้จะไม่เป็นอันตรายหรือไม่? อาจจะไม่ใช่บางที AI บางอย่างอาจใหญ่กว่าชีวิต มันเป็นแค่การเอาชีวิตรอดจากผู้ที่เหมาะสมที่สุด

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.