มนุษย์สามารถทำร้าย AI หรือจิตสำนึกหรือไม่?


9

หากมีสติ AI เป็นไปได้มันจะเป็นไปได้สำหรับคนที่รู้ว่าพวกเขากำลังทำอะไรเพื่อทรมาน (หรือบาดเจ็บ) AI? สามารถหลีกเลี่ยงได้ไหม อย่างไร?

คำถามนี้เกี่ยวกับ AI ที่ใช้คอมพิวเตอร์ไม่ใช่หุ่นยนต์ซึ่งมีจิตสำนึกเหมือนคน (นี่เป็นข้อสันนิษฐานของคำถาม) คำถามสงสัยว่าอาชญากรรมที่ยากที่จะติดตามว่าเป็นการดาวน์โหลดที่ผิดกฎหมาย แต่มีจริยธรรมที่แย่กว่านั้นสามารถป้องกันได้ โปรดทราบว่าแม้คนส่วนใหญ่จะเป็นคนดีและเห็นอกเห็นใจหุ่นยนต์ แต่ก็มีคนเลวอยู่เสมอและการพึ่งพามโนธรรมทั่วไปจะไม่ทำงาน

คำตอบ:


9

บทความChildren Beating Up Robot เป็นแรงบันดาลใจให้กับระบบการหลบหนีแบบใหม่นั้นมีพื้นฐานมาจากบทความวิจัยสองเรื่องเกี่ยวกับการทดลองในห้างสรรพสินค้าในญี่ปุ่น กระดาษวิจัยคุณอยู่ในความสนใจคือหนีจากการล่วงละเมิดเด็กของสังคมหุ่นยนต์

ในรายงานการวิจัยนั้นนักวิจัยสามารถตั้งโปรแกรมหุ่นยนต์เพื่อติดตามการจำลองการวางแผนเพื่อลดโอกาสในการถูกทารุณกรรมโดยเด็ก ๆ หากตรวจพบเด็กหุ่นยนต์จะถูกตั้งโปรแกรมให้หลบเข้าไปในฝูงชนของผู้ใหญ่ (ซึ่งสามารถฝึกฝนเด็กได้หากจำเป็น) สิ่งนี้เกิดขึ้นเพราะนักวิจัยเห็นว่าเป็นเพียงเด็ก ๆ ที่กำลังตีหุ่นยนต์ในห้างสรรพสินค้าที่สงสัย

พวกเขาหารือเกี่ยวกับการลองใช้ตัวเลือกอื่น ๆ :

ในงานนี้กลยุทธ์ของหุ่นยนต์ในการป้องกันการทารุณกรรมคือ“ หลบหนี” คือย้ายไปยังสถานที่ที่มีโอกาสเกิดการละเมิดน้อยกว่า ใคร ๆ ก็ถามว่าทำไมหุ่นยนต์ถึงไม่สามารถเอาชนะการละเมิดได้ ในการทดลองเบื้องต้นของเราเราได้ลองหลายวิธีแล้ว แต่เราพบว่ามันยากมากที่หุ่นยนต์จะโน้มน้าวให้เด็ก ๆ ไม่ทำผิดกฎ ตัวอย่างเช่นเราเปลี่ยนคำพูดของหุ่นยนต์ในหลาย ๆ ทางโดยใช้คำพูดที่แข็งแกร่งอารมณ์หรือการแสดงออกที่สุภาพ แต่ก็ไม่ประสบความสำเร็จ กลยุทธ์หนึ่งที่ประสบความสำเร็จเพียงบางส่วนคือหุ่นยนต์ที่ 'ผลักดันร่างกาย' ให้ลูก เมื่อวิธีการของมันถูกปิดกั้นมันก็จะพยายามที่จะดำเนินการต่อไปและทำงานราวกับว่ามันจะชนเข้ากับเด็กและบังคับทางผ่าน (ภายใต้การตรวจสอบอย่างระมัดระวังจากผู้ปฏิบัติงานของมนุษย์) เราสังเกตว่าในตอนแรกเด็ก ๆ ยอมรับคำขอของหุ่นยนต์และเชื่อฟังพวกเขา แต่, ในไม่ช้าพวกเขาก็เรียนรู้ว่าพวกเขาแข็งแกร่งกว่าหุ่นยนต์เพื่อให้พวกเขาสามารถชนะถ้าพวกเขาผลักและพวกเขาสามารถหยุดมันได้ด้วยการกดสวิตช์กันชน (ติดอยู่กับหุ่นยนต์เพื่อความปลอดภัย) หลังจากตระหนักว่าพวกเขาเพียงแค่ดำเนินการต่อกับพฤติกรรมที่ไม่เหมาะสม เห็นได้ชัดว่าการมีหุ่นยนต์ที่แข็งแกร่งกว่าจะนำเสนอปัญหาด้านความปลอดภัยและการยอมรับทางสังคมดังนั้นการรับมือกับสถานการณ์ที่ไม่เหมาะสมดังกล่าวยังคงเป็นเรื่องยาก


แต่ลองถามคำถามของคุณเพิ่มเติม:

ถ้า AI ที่รู้ตัวเป็นไปได้และแพร่กระจายอย่างกว้างขวางจะไม่ใช่เรื่องง่ายสำหรับคนที่รู้ว่าพวกเขากำลังทำอะไรเพื่อทรมาน AI หรือไม่?

ทำไมคุณถึงคิดว่าการทรมานนั้นผิด ? ท้ายที่สุดใคร ๆ ก็เถียงว่าเครื่องจะไม่ 'เจ็บปวด' จริงๆถ้าคุณทรมานมัน ... ดังนั้นมันควรจะเป็นเรื่องถูกต้องตามหลักคุณธรรมที่จะทรมานเครื่องนั้น มันอาจตอบสนองราวกับว่ามันอยู่ในความเจ็บปวด แต่ก็เป็นที่น่าสงสัยว่าความสามารถในการจำลองสภาวะทางอารมณ์เช่น "อยู่ในความเจ็บปวด" นั้นเทียบเท่ากับการอยู่ในสภาพอารมณ์จริงหรือไม่ ดูคำถามการจำลองสภาวะทางอารมณ์เทียบเท่ากับอารมณ์ที่เกิดขึ้นจริงหรือไม่? สำหรับการสนทนาเพิ่มเติมในหัวข้อนี้

คุณสามารถโต้แย้งเช่นนี้ได้ แต่มันจะไม่ได้ผลในระดับอารมณ์เพราะมนุษย์ส่วนใหญ่จะรู้สึกเห็นอกเห็นใจต่อเครื่อง มันอาจจะยากที่จะพิสูจน์ว่ามันมีเหตุผล (และอาจขึ้นอยู่กับแนวโน้มของมนุษย์ที่จะมีส่วนร่วมในมนุษย์ ) แต่เรารู้สึกถึงความเอาใจใส่นี้ นี่คือความเห็นอกเห็นใจที่ทำให้คุณต้องถามคำถามนี้ตั้งแต่แรกทำให้นักวิจัยเข้าใจวิธีการป้องกันหุ่นยนต์จากการถูกโจมตีทำให้เจ้าหน้าที่ตำรวจจับกุมชายญี่ปุ่นขี้เมาที่ตีหุ่นยนต์ SoftBankและทำให้มนุษย์จำนวนมาก อารมณ์เสียมากกว่าการทำลายของhitchBOT และนั่นคือการหลีกเลี่ยงการใช้ AI ในทางที่ผิด - การเอาใจใส่ของมนุษย์ หากมนุษย์ส่วนใหญ่ใส่ใจในสวัสดิภาพของเครื่องจักรพวกเขาจะให้ความสำคัญเป็นอันดับแรกในการหยุดมนุษย์ไม่กี่คนที่มีความสามารถและเต็มใจที่จะใช้เครื่องมือในทางที่ผิด


แก้ไข: OP ได้แก้ไขคำถามของเขาเพื่อชี้แจงว่าเขากำลังพูดถึงซอฟต์แวร์ไม่ใช่เกี่ยวกับหุ่นยนต์ สำหรับหุ่นยนต์คุณสามารถพึ่งพามานุษยวิทยาเพื่อสร้างความเห็นอกเห็นใจได้ในระดับหนึ่ง แต่ก็ยากที่จะเห็นด้วยกับรหัสบรรทัดดิบ

คุณจะไม่หยุดยั้งอัลกอริทึม กล่าวอย่างตรงไปตรงมาเนื่องจากอัลกอริทึมไม่เหมือนกับเราเราจะไม่ขยายความเอาใจใส่แบบเดียวกันกับที่เราทำกับหุ่นยนต์ แม้แต่ chatbots ก็ยังคิดไม่ออก หากคุณสามารถทำให้ผู้คนเห็นอกเห็นใจกับบรรทัดของรหัสแม้ว่า (อาจเป็นการจำลองที่น่าเชื่อของอารมณ์และความสามารถ) คำตอบข้างต้นจะนำไปใช้ - มนุษย์เปลี่ยนมนุษย์เครื่องและจะเกิดขึ้นกับการตอบโต้ เรายังไม่อยู่ในระดับนั้นดังนั้น "การหยุดการละเมิด AI" จะมีลำดับความสำคัญต่ำ

ยังคงมีโปรแกรมคาเฟ่ที่ล้มเหลวบางโปรแกรมเพื่อจำกัดความเสียหายของการละเมิดตามรายละเอียดในหัวข้อนี้เกี่ยวกับการใช้ chatbot ในทางที่ผิด - ทำให้บอทตอบสนองในลักษณะที่น่าเบื่อเพื่อให้ผู้ทำร้ายรู้สึกเบื่อและย้ายไปยังเป้าหมาย ใน "การต่อสู้ด้วยปัญญา" หรือแม้แต่ปิดกั้นผู้ใช้จากการใช้บริการ

ร้านกาแฟที่ล้มเหลวเหล่านี้เป็นร้านที่สะดวกสบายสำหรับผู้ที่ต้องการป้องกันการละเมิดไม่ตอบสนอง

นอกจากนี้ ... ผู้ทำทารุณกรรมสามารถเรียนรู้วิธีการตั้งค่า AI เพื่อการใช้เนื้อหาในใจอย่างไม่เหมาะสม ไม่มีสิ่งใดที่จะหยุดยั้งได้และมาตรการใด ๆ ที่เป็นไปได้ที่จะหยุดกล่าวว่าการละเมิด (เช่นการติดตามมนุษย์ทุกคนเพื่อให้แน่ใจว่าพวกเขาไม่ได้ตั้งโปรแกรม AI เพื่อการละเมิด) อาจทำให้เกิดความเสียหายมากกว่าที่จะแก้ไข


TBH นี้ไม่ได้ตอบคำถามของฉันจริง ๆ ฉันเดาว่าฉันจะแก้ไขคำถามอีกเล็กน้อย
เลมอนที่ทำลายได้

1
@TariqAli ขอบคุณสำหรับโพสต์นี้ ฉันไม่รู้เรื่องเกี่ยวกับการมีปฏิสัมพันธ์ของเด็กกับหุ่นยนต์ทางสังคมซึ่งฉันพบว่าทั้งเฮฮาและฉุนเฉียว (ฉันจำได้ว่าเป็นเด็กตัวเล็ก ๆ ที่ Disney World และ "โจมตี" ตัวละครดิสนีย์ที่ถูกบริโภคเช่นมิกกี้เม้าส์ซึ่งเกินความนิยม)
DukeZhou

6

ฉันขอแนะนำให้คุณดูทุกวิธีที่เราพยายามหยุดไม่ให้คนอื่นใช้ในทางที่ผิด ไม่มีบริเวณสีเทาทางจริยธรรมที่นี่ - ทุกคนเห็นได้ชัดว่านี่เป็นสิ่งที่ผิด แต่ถึงกระนั้นผู้คนก็ถูกฆ่า, ข่มขืนและทำร้ายร่างกายเป็นล้านในทุก ๆ วัน

เมื่อเราแก้ไขปัญหานี้โดยคำนึงถึงเหยื่อมนุษย์การแก้ปัญหาที่เกิดขึ้นน่าจะใช้ได้กับ AIs เช่นกัน


ผมพร้อมที่จะบอกว่าทำไมเรื่องนี้ไม่ได้ทั้งหมดนำไปใช้ แต่คุณอาจขวาแล้ว ...
ทำลายมะนาว

-1

AI และก้าวร้าวนอกมุมมองไม่สามารถทำซ้ำโปรแกรมไม่ได้รับการศึกษาหรือการออกแบบเช่นปัญญาธรรมชาติของเราข้อมูลของ AI ไม่สามารถนำมาเปรียบเทียบกับความฉลาดทางมนุษยศาสตร์ตามกระบวนการคิดทางอารมณ์ - สังคมที่พัฒนาโดยเติบโตขึ้นมาเพราะการออกแบบของเราไม่ได้จดสิทธิบัตร เช่นการเขียนโปรแกรมของ AI Life ที่ทำซ้ำผ่านทฤษฎีทางวิศวกรรมตามตัวอย่างเพียงอย่างเดียวจะไม่พอเพียงประสบการณ์คือผู้ชายที่มีความรู้ แต่โดยการกระทำเมื่อเวลาผ่านไปไม่ได้ออกแบบมาสำหรับวิศวกรรมความคิดเห็นระดับปริญญาเอกทางอารมณ์ อย่างไรก็ตาม AI อาจใช้แนวคิดการส่งสคริปต์ทางอารมณ์ของเรากับซอฟต์แวร์ที่อยู่บนพื้นฐานของตัวอย่างของการกระทำของมนุษย์ทำนายการตอบสนองที่ผิดธรรมชาติในกรณีที่การบอกกล่องโต้ตอบของผู้รับที่มนุษย์ทำปฏิกิริยาโดยไม่ตอบสนองเหมือนพวกเขาเข้าใจว่าบอทนั้นเป็นสิทธิบัตรประดิษฐ์ เพื่อการสนทนาเราจะได้รับการวินิจฉัยผ่านสาเหตุและผลกระทบ ไม่ใช่ประสบการณ์ที่สมเหตุสมผลที่เราต้องการให้ AI กลายเป็นบอททางอารมณ์ที่มีประสบการณ์ควรทำให้อารมณ์ของบอตแตกต่างไปจากความถูกต้องของเรา เราจะดูว่าผลลัพธ์ที่เราได้รับนั้นเป็นไปตามลักษณะของโปรแกรมซอฟต์แวร์พื้นฐานที่ทำให้บอตตอบสนองต่อปัญญาประดิษฐ์ที่มีประสบการณ์ด้านการออกแบบโดยใช้แนวคิดของกลไกซอฟต์แวร์อารมณ์


2
1. กรุณาจัดรูปแบบโพสต์นี้ให้ดีขึ้น 2. AI ที่มีสติเป็นสัจพจน์ของคำถามไม่ใช่คำถาม
Destructible Lemon
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.