AIs ที่แข็งแกร่ง
สำหรับ AI ที่แข็งแกร่งคำตอบสั้น ๆ คือการขอความช่วยเหลือเมื่อพวกเขาอาจไม่รู้ด้วยซ้ำว่าความช่วยเหลือที่ควรจะเป็นคืออะไร
ขึ้นอยู่กับว่า AI จะทำอะไร ถ้ามันควรจะแก้งานง่าย ๆ เพียงอย่างเดียวได้อย่างสมบูรณ์แบบและเป็นมืออาชีพอารมณ์จะไม่เป็นประโยชน์อย่างแน่นอน แต่ถ้ามันควรจะเรียนรู้สิ่งใหม่แบบสุ่มมันจะมีจุดหนึ่งที่พบสิ่งที่ไม่สามารถจัดการได้
ใน Lee Sedol vs AlphaGo การจับคู่ที่ 4 โปรบางคนที่พูดว่าคอมพิวเตอร์ไม่มีอารมณ์มาก่อนแสดงความคิดเห็นว่าบางที AlphaGo ก็มีอารมณ์เช่นกันและแข็งแกร่งกว่ามนุษย์ ในกรณีนี้เรารู้ว่าพฤติกรรมที่บ้าคลั่งของ AlphaGo ไม่ได้เกิดจากการเพิ่มสิ่งที่เรียกว่า "อารมณ์" แต่มีข้อบกพร่องในอัลกอริทึม แต่มันก็ทำตัวเหมือนมันตื่นตระหนก
หากเกิดเหตุการณ์นี้ขึ้นมากมายสำหรับ AI อาจมีข้อได้เปรียบหากสามารถรู้เรื่องนี้และคิดสองครั้งถ้าเกิดขึ้น หาก AlphaGo ตรวจพบปัญหาและเปลี่ยนกลยุทธ์มันอาจเล่นได้ดีขึ้นหรือแย่ลง มันไม่น่าจะเลวร้ายไปกว่านี้หากมันไม่ได้ทำการคำนวณสำหรับวิธีการอื่นใดเลย ในกรณีที่มันเล่นแย่กว่านี้เราอาจพูดว่ามันมี "อารมณ์" และนี่อาจเป็นเหตุผลที่บางคนคิดว่าการมีอารมณ์อาจเป็นข้อบกพร่องของมนุษย์ แต่นั่นไม่ใช่สาเหตุที่แท้จริงของปัญหา สาเหตุที่แท้จริงคือมันไม่รู้วิธีการรับประกันการชนะและการเปลี่ยนกลยุทธ์เป็นเพียงการพยายามแก้ไขปัญหา ผู้แสดงความคิดเห็นคิดว่ามีวิธีที่ดีกว่า (ซึ่งไม่รับประกันว่าจะชนะ แต่มีโอกาสมากกว่า) แต่อัลกอริธึมไม่ได้ ' ไม่สามารถค้นหาสถานการณ์นี้ได้ แม้แต่สำหรับมนุษย์การแก้ไขสิ่งต่าง ๆ ที่เกี่ยวข้องกับอารมณ์ไม่น่าจะเป็นการขจัดอารมณ์ แต่การฝึกอบรมบางอย่างเพื่อให้แน่ใจว่าคุณเข้าใจสถานการณ์เพียงพอที่จะกระทำอย่างสงบ
จากนั้นมีบางคนต้องโต้แย้งว่านี่เป็นอารมณ์หรือไม่ เรามักจะไม่พูดว่าแมลงขนาดเล็กมีอารมณ์เหมือนมนุษย์เพราะเราไม่เข้าใจพวกเขาและไม่เต็มใจที่จะช่วยเหลือพวกเขา แต่มันง่ายที่จะรู้ว่าบางคนสามารถตื่นตระหนกในสถานการณ์ที่สิ้นหวังเช่นเดียวกับ AlphaGo ฉันจะบอกว่าปฏิกิริยาเหล่านี้มีพื้นฐานมาจากตรรกะเดียวกันและอย่างน้อยก็เป็นเหตุผลว่าทำไมอารมณ์ความรู้สึกคล้ายคนอาจมีประโยชน์ พวกเขาไม่ได้แสดงออกด้วยวิธีที่มนุษย์เข้าใจได้เพราะพวกเขาไม่ได้ตั้งใจจะเรียกมนุษย์มาขอความช่วยเหลือ
หากพวกเขาพยายามที่จะเข้าใจพฤติกรรมของตนเองหรือเรียกคนอื่นมาขอความช่วยเหลืออาจเป็นเรื่องดีที่จะเป็นเหมือนมนุษย์ สัตว์เลี้ยงบางตัวสามารถสัมผัสอารมณ์ความรู้สึกของมนุษย์และแสดงอารมณ์ที่มนุษย์เข้าใจได้ในระดับหนึ่ง จุดประสงค์คือการมีปฏิสัมพันธ์กับมนุษย์ พวกเขาพัฒนาความสามารถนี้เพราะพวกเขาต้องการมันในบางจุด เป็นไปได้ว่า AI ที่แข็งแกร่งเต็มรูปแบบก็ต้องการเช่นกัน นอกจากนี้โปรดทราบว่าการตรงกันข้ามกับการมีอารมณ์เต็มอาจจะกลายเป็นบ้า
มันอาจเป็นวิธีที่รวดเร็วในการสูญเสียความไว้วางใจใด ๆ หากมีคนใช้อารมณ์เลียนแบบมนุษย์ด้วยความเข้าใจเพียงเล็กน้อยในรุ่นแรก
AIS อ่อนแอ
แต่มีจุดประสงค์ใดบ้างสำหรับพวกเขาที่จะมีอารมณ์ก่อนใครบางคนต้องการ AI ที่แข็งแกร่ง ฉันจะบอกว่าไม่มีไม่มีเหตุผลโดยธรรมชาติที่พวกเขาจะต้องมีอารมณ์ แต่ย่อมมีคนต้องการใช้อารมณ์เลียนแบบอยู่ดี การที่ "เรา" ต้องการให้พวกเขามีอารมณ์เป็นเรื่องไร้สาระหรือเปล่า
ความจริงก็คือบางโปรแกรมที่ไม่มีความฉลาดมีองค์ประกอบ "อารมณ์" บางอย่างในส่วนต่อประสานผู้ใช้ พวกเขาอาจดูไม่เป็นมืออาชีพ แต่ไม่ใช่ทุกงานที่ต้องการความเป็นมืออาชีพเพื่อให้พวกเขาสามารถยอมรับได้อย่างสมบูรณ์ พวกเขาเป็นเหมือนอารมณ์ในเพลงและศิลปะ ใครบางคนจะออกแบบ AI ที่อ่อนแอของพวกเขาด้วยวิธีนี้เช่นกัน แต่พวกเขาไม่ใช่อารมณ์ของ AIs จริงๆ แต่เป็นผู้สร้างของพวกเขา หากคุณรู้สึกดีขึ้นหรือแย่ลงเพราะอารมณ์ของพวกเขาคุณจะไม่ปฏิบัติต่อ individul AIs ที่แตกต่างกัน แต่รูปแบบหรือแบรนด์นี้โดยรวม
อีกวิธีหนึ่งคือบางคนสามารถปลูกฝังบุคลิกภาพบางอย่างเช่นในเกมสวมบทบาทที่นั่น อีกครั้งไม่มีเหตุผลที่พวกเขาจะต้องมี แต่ใครบางคนจะทำอย่างหลีกเลี่ยงไม่ได้เพราะพวกเขามีตลาดบางอย่างเมื่อเกมเล่นตามบทบาททำ
ในทั้งสองกรณีอารมณ์ไม่ได้มาจาก AI จริงๆ และมันจะง่ายต่อการนำไปใช้เพราะมนุษย์ไม่คาดหวังว่าพวกเขาจะเป็นเหมือนมนุษย์ แต่พยายามเข้าใจสิ่งที่พวกเขาตั้งใจจะหมายถึง มันง่ายกว่ามากที่จะยอมรับอารมณ์เหล่านี้
ด้านอารมณ์
ขออภัยเกี่ยวกับการโพสต์งานวิจัยต้นฉบับที่นี่ ฉันทำรายการอารมณ์ในปี 2012 และจากที่ฉันเห็น 4 ด้านของอารมณ์ หากพวกเขานำไปใช้ทั้งหมดฉันจะบอกว่าพวกเขาเป็นอารมณ์เดียวกันกับมนุษย์ ดูเหมือนจะไม่จริงหากมีเพียงบางส่วนที่นำมาใช้ แต่นั่นไม่ได้หมายความว่าพวกเขาผิดทั้งหมด
- เหตุผลหรือปัญหาตรรกะดั้งเดิมที่ AI ไม่สามารถแก้ไขได้ AlphaGo มีเหตุผลอยู่แล้ว แต่ไม่มีอะไรอื่น ถ้าฉันต้องนิยามที่ถูกต้องฉันจะบอกว่ามันเป็นสภาวะที่ฮิวริสติกที่สำคัญหลายตัวไม่เห็นด้วยซึ่งกันและกัน
- บริบทหรือส่วนใดของแนวทางปัจจุบันที่ถือว่าไม่ทำงานได้ดีและน่าจะถูกแทนที่ สิ่งนี้แยกความสัมพันธ์ที่เกี่ยวข้องกับความโศกเศร้าความกังวลและความหลงใหล
- สถานะปัจจุบันหรือไม่ว่าจะรู้สึกเป็นผู้นำหรือไม่ว่าจะเป็นความเชื่อหรือข้อเท็จจริงที่ควรจะเลวร้ายก่อน (หรือไม่ดีมาตลอด) ถ้าสิ่งต่าง ๆ ผิดไป สิ่งนี้แยกความสัมพันธ์ที่เกี่ยวข้องกับความโศกเศร้าความรักและความภาคภูมิใจ
- แผนหรือคำขอ ฉันคิดว่าสัตว์เลี้ยงในบ้านบางตัวมีสิ่งนี้อยู่แล้ว และฉันคิดว่าสิ่งเหล่านี้มีรูปแบบคงที่ซึ่งไม่ยากเกินไปที่จะมี แม้แต่ศิลปะก็ยังสามารถบรรจุได้อย่างง่ายดาย ต่างจากเหตุผลเหล่านี้ไม่น่าจะมีอยู่ในอัลกอริธึมและหลายคนสามารถปรากฏขึ้นพร้อมกัน
- ใครควรจะมีความรับผิดชอบถ้าไม่มีอะไรเปลี่ยนไปตามอารมณ์ สิ่งนี้แยกความอยากรู้อยากเห็นความโกรธและความโศกเศร้า
- แผนการที่ควรทำคืออะไรถ้าไม่มีการเปลี่ยนแปลงอารมณ์ สิ่งนี้แยกความผิดหวังความเศร้าและความประหลาดใจ
- แหล่งที่มา หากไม่มีบริบทแม้แต่มนุษย์ก็ไม่สามารถบอกได้ว่าใครบางคนกำลังร้องไห้เพราะถูกย้ายหรือรู้สึกขอบคุณหรือยิ้มแย้มสำหรับความอับอายบางประเภท ในกรณีอื่น ๆ ส่วนใหญ่ไม่มีแม้แต่คำที่อธิบายคำเหล่านั้น มันไม่ได้สร้างความแตกต่างมากนักถ้า AI ไม่แยกแยะหรือแสดงสิ่งนี้เป็นพิเศษ เป็นไปได้ว่าพวกเขาจะเรียนรู้สิ่งเหล่านี้โดยอัตโนมัติ (และไม่ถูกต้องในฐานะมนุษย์) ในจุดที่พวกเขาสามารถเรียนรู้ที่จะเข้าใจภาษามนุษย์
- การวัดเช่นปัญหาเร่งด่วนหรือสำคัญอย่างไรหรือแม้แต่อารมณ์ที่เป็นจริง ฉันว่ามันไม่สามารถนำมาใช้ใน AI มนุษย์ไม่จำเป็นต้องเคารพพวกเขาแม้ว่าพวกเขาจะเป็นเหมือนมนุษย์ แต่มนุษย์จะได้เรียนรู้วิธีที่จะเข้าใจ AI ถ้ามันสำคัญจริงๆแม้ว่าพวกเขาจะไม่เหมือนมนุษย์เลย ในความเป็นจริงฉันรู้สึกว่าบางอารมณ์อ่อนแอมาก (เช่นการคิดอะไรบางอย่างที่โง่และน่าเบื่อจนคุณไม่รู้วิธีแสดงความคิดเห็น) มีอยู่เกือบเฉพาะในอิโมติคอนที่มีคนตั้งใจจะแสดงอารมณ์นี้อย่างแน่นอนและแทบจะไม่ เห็นได้ชัดในชีวิตจริงหรือฉากที่ซับซ้อน ฉันคิดว่านี่อาจเป็นกรณีเริ่มต้นสำหรับ AIs ในกรณีที่เลวร้ายที่สุดพวกมันจะถูกเรียกว่า "อารมณ์" เป็นครั้งแรกเนื่องจากอีโมติคอนทำงานในกรณีเหล่านี้ดังนั้น
ดังนั้นเมื่อ AIs ที่แข็งแกร่งกลายเป็นไปได้สิ่งเหล่านี้จะไม่สามารถเข้าถึงได้แม้ว่าจะมีงานจำนวนมากที่ต้องทำการเชื่อมต่อ ดังนั้นฉันจะบอกว่าถ้าจะมีความจำเป็นสำหรับไอไอเอที่แข็งแกร่งพวกเขาจะมีอารมณ์อย่างแน่นอน