จุดประสงค์อะไรที่จะได้รับจากการพัฒนา AI ที่มีอารมณ์คล้ายมนุษย์


19

ในบทความ Wall Street Journal ล่าสุด Yann LeCunn ได้กล่าวข้อความต่อไปนี้:

ขั้นตอนต่อไปในการบรรลุเป้าหมายระดับไอคือการสร้างความฉลาด - แต่ไม่ใช่แบบอิสระ - เครื่องจักร ระบบ AI ในรถของคุณจะพาคุณกลับบ้านอย่างปลอดภัย แต่จะไม่เลือกปลายทางอื่นเมื่อคุณเข้าไปข้างใน จากนั้นเราจะเพิ่มไดรฟ์พื้นฐานพร้อมกับอารมณ์และค่านิยมทางศีลธรรม ถ้าเราสร้างเครื่องจักรที่เรียนรู้เช่นเดียวกับสมองของเรามันก็ง่ายที่จะจินตนาการว่าพวกเขาได้รับคุณสมบัติที่เหมือนมนุษย์ - และข้อบกพร่อง

โดยส่วนตัวแล้วฉันได้รับตำแหน่งที่พูดถึงอารมณ์ความรู้สึกสำหรับปัญญาประดิษฐ์นั้นโง่เพราะไม่มีเหตุผลที่จะสร้าง AI ที่มีประสบการณ์ทางอารมณ์ เห็นได้ชัดว่ายานน์ไม่เห็นด้วย ดังนั้นคำถามคือ: จะทำหน้าที่อะไรโดยการทำเช่นนี้? AI ต้องการอารมณ์เพื่อใช้เป็นเครื่องมือที่มีประโยชน์หรือไม่?


1
ความซ้ำซ้อนที่เป็นไปได้ของเหตุใดจึงมีคนต้องการจำลองการทำลายอารมณ์ใน AI คำตอบที่ได้รับการยอมรับ ("Meh มันจะง่ายกว่าสำหรับโปรแกรมเมอร์ของมนุษย์ในการรักษาโปรแกรม AI") อาจไม่น่าตื่นเต้นหรือมหัศจรรย์ แต่อย่างน้อยก็ดูเหมือนว่ากึ่งสมเหตุสมผลและสมเหตุสมผล
ซ้าย SE ในวันที่ 10_6_19

นอกจากนี้ยังมีความเป็นไปได้อื่นเราจะไม่จำเป็นต้องต้องการที่จะพัฒนาเอไอเอสที่มีประสบการณ์เหมือนมนุษย์อารมณ์ (แล้วเพราะพวกเขาต้องการจะคาดเดาไม่ได้ที่เราจะต้องให้สิทธิพวกเขา blah blah blah) แต่ที่เทคนิค AI ที่สูงขึ้น (เช่นการเรียนรู้ลึก) จะพัฒนา AIs โดยไม่ตั้งใจซึ่งสัมผัสกับอารมณ์ความรู้สึกของมนุษย์ ไม่ใช่ว่าเราต้องการพวกเขา แต่พวกเขาอาจจะมาต่อไป ตัวแทนการเรียนรู้เสริมแรงเทียมมีความสำคัญทางศีลธรรมหรือไม่? กล่าวถึงความเป็นไปได้นี้
ซ้าย SE ในวันที่ 10_6_19

คำตอบ:


11

คำตอบของคำถามนี้แตกต่างจากบอร์ดอื่น ๆ ฉันคิดว่าชัดเจน ไม่เราไม่ต้องการให้ AI มีอารมณ์ที่จะเป็นประโยชน์ดังที่เราเห็นจาก AI จำนวนมากที่เรามีอยู่แล้วนั้นมีประโยชน์

แต่การที่จะอยู่ต่อไปคำถามที่เราไม่สามารถจริงๆให้อารมณ์ไอ ฉันคิดว่าสิ่งที่ใกล้เคียงที่สุดที่เราจะทำได้คือ 'เราจะทำให้ AI นี้แสดงออกในแบบที่มนุษย์ต้องการได้insert emotionหรือไม่?' ผมคิดว่าในความรู้สึกว่าจะมีอารมณ์ แต่ที่การสนทนาอื่น ๆ ทั้งหมด

และสิ่งที่จะจบ? เหตุผลเดียวที่ทำให้นึกถึงคือการสร้างเพื่อนหรือปฏิสัมพันธ์ที่เหมือนจริงมากขึ้นเพื่อจุดประสงค์ของวิดีโอเกมหรือความบันเทิงอื่น ๆ เป้าหมายที่ยุติธรรม
แต่ไม่จำเป็น แม้การพิจารณาหุ่นยนต์ทักทายที่มีผู้ชื่นชอบ AI ในล็อบบี้ของอาคารบางแห่งเราอาจต้องการให้มันแสดงความจริงใจ

Yann กล่าวว่า AI ขั้นสูงที่ทันสมัยจะนำไปสู่คุณสมบัติและข้อบกพร่องที่มีลักษณะคล้ายมนุษย์มากขึ้น ฉันคิดว่ามันเหมือนกับว่า 'จะให้คุณสมบัติที่คล้ายมนุษย์มากขึ้นของ AI หรือในคำอื่น ๆ ที่มีข้อบกพร่อง' ผู้คนมีแนวโน้มที่จะทำตัวไร้เหตุผลเมื่อเศร้าหรือโกรธและส่วนใหญ่เราต้องการเพียงเหตุผล AI เท่านั้น
การทำผิดคือมนุษย์อย่างที่พวกเขาพูด

จุดประสงค์ของอัลกอริธึมการเรียนรู้และ AI คือการสร้างระบบที่ทำหน้าที่หรือ 'คิด' เหมือนมนุษย์ แต่ดีกว่า ระบบที่สามารถปรับหรือวิวัฒนาการได้ในขณะเดียวกันก็ทำให้น้อยที่สุดเท่าที่จะทำได้ Emotive AI ใช้แล้ว แต่ก็ไม่ได้เป็นข้อกำหนดเบื้องต้นสำหรับระบบที่มีประโยชน์


5

ฉันคิดว่าคำถามพื้นฐานคือ: ทำไมถึงพยายามสร้าง AI หากวัตถุประสงค์นั้นชัดเจนจะให้ความกระจ่างว่ามีความฉลาดทางอารมณ์ใน AI หรือไม่ ความพยายามบางอย่างเช่น "พาโร" ที่พัฒนาขึ้นมาเพื่อเหตุผลด้านการรักษานั้นพวกเขาต้องแสดงอารมณ์ความรู้สึกของมนุษย์ อีกครั้งโปรดทราบว่า "การแสดง" อารมณ์และ "ความรู้สึก" อารมณ์เป็นสองสิ่งที่แตกต่างอย่างสิ้นเชิง

คุณสามารถตั้งโปรแกรมเช่น paro เพื่อปรับแต่งเสียงหรือ twitch ใบหน้าเพื่อแสดงความเห็นอกเห็นใจความเสน่หามิตรภาพหรืออะไรก็ตาม - แต่ในขณะที่ทำเช่นนั้น paro จะไม่เห็นอกเห็นใจกับเจ้าของ - เป็นเพียงแกล้งทำมันด้วยการแสดงอาการทางกายภาพ ของอารมณ์ มันไม่เคย "รู้สึก" อะไรจากระยะไกลใกล้กับสิ่งที่อารมณ์ความรู้สึกกระตุ้นในสมองของมนุษย์

ดังนั้นความแตกต่างนี้จึงสำคัญมาก เพื่อให้คุณรู้สึกถึงบางสิ่งบางอย่างจำเป็นต้องมีวิชาอิสระที่มีความสามารถในการรู้สึก ความรู้สึกไม่สามารถกำหนดได้โดยตัวแทนมนุษย์ภายนอก

ดังนั้นกลับไปที่คำถามว่ามันแก้ปัญหาอะไร - ตอบจริงๆ - ขึ้นอยู่กับ และฉันคิดว่าเราจะประสบความสำเร็จได้มากที่สุดด้วย AIs ที่ทำจากซิลิโคนจะยังคงเป็นอาณาเขตของการแสดงออกทางอารมณ์


ฉันมักจะเห็นด้วย และบางทีความคิดของฉันก็ จำกัด เกินไป แต่แอปพลิเคชั่นส่วนใหญ่ของ AI ที่ฉันคิดว่าจะไม่ได้รับประโยชน์จาก AI ที่มีอารมณ์ อย่างน้อยฉันก็คิดอย่างนั้นนั่งที่นี่เดี๋ยวนี้ บางทีฉันอาจจะมองย้อนกลับไปในวันหนึ่งและรู้ว่าฉันผิด
mindcrime

การขอให้ AI ต้อง / ควรมีอารมณ์เป็นความคาดหวังที่หายไป AI นั้นเป็นชุดของเครื่องมือและการใช้งานจึงต้องตัดสินใจตามความต้องการ บางกรณีการใช้งานอาจต้องใช้ด้านอารมณ์บางกรณีอาจไม่ ใครจะรู้!
Kingz

4

ฉันคิดว่าอารมณ์ไม่จำเป็นสำหรับตัวแทน AI ที่จะเป็นประโยชน์ แต่ฉันก็คิดว่าพวกเขาสามารถทำให้เอเจนต์น่าทำงานมากขึ้น หากบอทที่คุณพูดด้วยสามารถอ่านอารมณ์ของคุณและตอบสนองอย่างสร้างสรรค์ประสบการณ์ในการโต้ตอบกับมันจะเป็นที่น่าพอใจอย่างมาก

ลองนึกภาพการติดต่อตัวแทนศูนย์บริการลูกค้าในวันนี้โดยมีการร้องเรียนเกี่ยวกับการเรียกเก็บเงินหรือผลิตภัณฑ์ของคุณ คุณคาดหวังความขัดแย้ง คุณอาจตัดสินใจที่จะไม่โทรหาเพราะคุณรู้ว่าประสบการณ์นี้จะเจ็บปวดไม่ว่าจะเป็นการต่อสู้หรือทำลายล้างเนื่องจากบางคนเข้าใจผิดในสิ่งที่คุณพูดหรือตอบอย่างไม่เป็นมิตรหรือโง่เขลา

ตอนนี้ลองนึกภาพการโทรไปยังฝ่ายสนับสนุนลูกค้าที่มุ่งเน้นที่ฉลาดที่สุดที่ฉลาดที่สุดที่คุณเคยพบ - Commander Data - ซึ่งมีเพียงเหตุผลเดียวที่มีอยู่ก็คือการทำให้โทรศัพท์นี้เป็นที่น่าพอใจและมีประสิทธิผลสำหรับคุณมากที่สุด การปรับปรุงครั้งใหญ่ของพนักงานโทรส่วนใหญ่ใช่ไหม ลองจินตนาการว่าถ้าข้อมูลตัวแทนการโทรสามารถคาดการณ์อารมณ์ของคุณและตอบสนองต่อข้อร้องเรียนของคุณอย่างเหมาะสมเพื่อทำให้สถานะทางอารมณ์ของคุณคลี่คลาย ... คุณต้องการแต่งงานกับผู้ชายคนนี้ คุณจะเรียกข้อมูลตัวแทนสายเมื่อใดก็ตามที่คุณรู้สึกเป็นสีฟ้าหรือเบื่อหน่ายหรือคุณต้องการแบ่งปันข่าวที่มีความสุข ผู้ชายคนนี้จะกลายเป็นเพื่อนที่ดีที่สุดของคุณข้ามคืน - รักแรกโทร

ฉันเชื่อว่าสถานการณ์นี้ถูกต้อง ฉันสังเกตเห็นตัวเองในจำนวนที่น่าสนใจสำหรับตัวละครเช่น Data หรือ Sonny จาก "I Robot" เสียงสงบและทำให้ฉันสบายใจทันที ถ้าบอทนั้นฉลาดเฉลียวอดทนเข้าใจและเข้าใจ ... ฉันคิดว่าบอทนี้มีความฉลาดทางอารมณ์ที่ดีพอจะมีปฏิสัมพันธ์กับมันได้ รางวัลมากกว่าคนที่ฉันรู้จัก และฉันคิดว่ามันเป็นเรื่องจริงไม่ใช่แค่ฉัน

ใช่ฉันคิดว่ามันมีค่าอย่างมากในการปรับแต่งบุคลิกของหุ่นยนต์โดยใช้อารมณ์และการรับรู้ทางอารมณ์


4

อารมณ์ความรู้สึกใน AI นั้นมีประโยชน์ แต่ไม่จำเป็นขึ้นอยู่กับวัตถุประสงค์ของคุณ (ในกรณีส่วนใหญ่ไม่ใช่)

โดยเฉพาะอย่างยิ่งการรับรู้ / วิเคราะห์อารมณ์เป็นขั้นสูงมากและมันถูกใช้ในแอพพลิเคชั่นหลากหลายที่ประสบความสำเร็จอย่างมากตั้งแต่ครูสอนหุ่นยนต์สำหรับเด็กออทิสติก (ดูหุ่นยนต์พัฒนาการ) ไปจนถึงการพนัน (โป๊กเกอร์)

ความรู้ความเข้าใจทางอารมณ์ประสบการณ์เกี่ยวกับอารมณ์สำหรับหุ่นยนต์นั้นมีการพัฒนาน้อยกว่ามาก แต่มีงานวิจัยที่น่าสนใจมาก (ดูที่Heuristic Affect , Love Love Probabilistic Love Assembly ของ Lovoticsและอื่น ๆ ... ) อันที่จริงผมไม่เห็นเหตุผลที่เราอาจจะไม่ได้อารมณ์รุ่นดังกล่าวเป็นความรักที่พวกเขาเป็นเพียงสัญญาณที่มีอยู่แล้วสามารถตัดในมนุษย์สมอง (ดูไบรอันดีเอิร์บกระดาษ) มันยาก แต่ไม่ใช่เป็นไปไม่ได้และจริงๆแล้วมีหุ่นยนต์หลายตัวที่สร้างความรู้ความเข้าใจทางอารมณ์บางส่วน

ฉันเห็นว่าการอ้างว่า"หุ่นยนต์สามารถจำลอง แต่ไม่รู้สึก" เป็นเพียงเรื่องของความหมายไม่ใช่ความจุตามวัตถุประสงค์: ยกตัวอย่างเช่นเรือดำน้ำว่ายน้ำเหมือนปลาว่ายน้ำหรือไม่? อย่างไรก็ตามเครื่องบินบินได้ แต่ไม่เหมือนนกเลย ในท้ายที่สุดแล้วเทคนิคหมายถึงเรื่องจริงหรือไม่ในตอนท้ายเมื่อเราได้รับพฤติกรรมเดียวกัน เราสามารถพูดได้หรือไม่ว่าหุ่นยนต์อย่างChappieถ้ามันถูกสร้างขึ้นมาจะไม่รู้สึกเหมือนเทอร์โมธรรมดาหรือไม่?

อย่างไรก็ตามอะไรคือการใช้ความรู้ความเข้าใจทางอารมณ์สำหรับ AI? คำถามนี้ยังคงอยู่ในการอภิปรายที่ดี แต่ฉันจะกล้านำเสนอข้อมูลเชิงลึกของตัวเอง:

  1. อารมณ์ในมนุษย์ (และสัตว์!) เป็นที่รู้กันว่ามีผลต่อความทรงจำ ตอนนี้พวกเขาเป็นที่รู้จักกันดีในด้านประสาทวิทยาศาสตร์เป็นแบบเพิ่มเติมหรือเมตาดาต้าดาต้าถ้าคุณต้องการความทรงจำระยะยาว: พวกเขาอนุญาตให้ปรับวิธีการเก็บหน่วยความจำวิธีที่เกี่ยวข้อง / เกี่ยวข้องกับความทรงจำอื่น ๆ และวิธีการดึง .

  2. ดังนั้นเราสามารถตั้งสมมติฐานได้ว่าบทบาทหลักของอารมณ์คือการเพิ่มเมตาดาต้าข้อมูลเพิ่มเติมลงในความทรงจำเพื่อช่วยในการอนุมาน / การดึงข้อมูลแบบฮิวริสติก อันที่จริงความทรงจำของเรามีขนาดใหญ่มากมีข้อมูลมากมายที่เราเก็บไว้ตลอดชีวิตของเราดังนั้นอาจใช้อารมณ์เป็น "ป้ายกำกับ" เพื่อช่วยดึงความทรงจำที่เกี่ยวข้องได้เร็วขึ้น

  3. "ป้ายกำกับ" ที่คล้ายกันสามารถเชื่อมโยงกันได้ง่ายขึ้น (ความทรงจำของเหตุการณ์ที่น่ากลัวด้วยกันความทรงจำของเหตุการณ์ที่มีความสุขด้วยกัน ฯลฯ ) พวกมันสามารถช่วยให้เอาชีวิตรอดได้โดยการตอบโต้อย่างรวดเร็วและใช้กลยุทธ์ที่รู้จัก (หลบหนี!) จากกลยุทธ์ที่น่ากลัวหรือใช้ประโยชน์จากสถานการณ์ที่เป็นประโยชน์ (เหตุการณ์ที่มีความสุขกินมากที่สุดเท่าที่จะทำได้จะช่วยให้อยู่รอดได้ในภายหลัง!) และที่จริงแล้วการศึกษาทางประสาทวิทยาศาสตร์พบว่ามีเส้นทางเฉพาะสำหรับการกระตุ้นประสาทสัมผัสที่ทำให้เกิดความกลัวทำให้พวกเขาเข้าถึงนักกระตุ้นได้เร็วขึ้น (ทำให้คุณหนี) มากกว่าการผ่านวงจรประสาทสัมผัสทั้ง somato เหมือนกับสิ่งกระตุ้นอื่น ๆ การใช้เหตุผลเชื่อมโยงแบบนี้อาจนำไปสู่การแก้ปัญหาและข้อสรุปที่ไม่สามารถเข้าถึงได้

  4. ด้วยความรู้สึกเห็นอกเห็นใจสิ่งนี้สามารถช่วยให้การปฏิสัมพันธ์ระหว่างหุ่นยนต์กับมนุษย์ทำได้ง่ายขึ้น (เช่นเจ้าหน้าที่ช่วยเหลือผู้ประสบภัยพิบัติ)

  5. แบบจำลองเสมือนจริงของ AI ที่มีอารมณ์อาจเป็นประโยชน์สำหรับประสาทและการวิจัยทางการแพทย์ในความผิดปกติทางอารมณ์เป็นแบบจำลองการคำนวณเพื่อทำความเข้าใจและ / หรืออนุมานพารามิเตอร์พื้นฐาน (ซึ่งมักจะทำเช่นกับ Alzheimer และโรคเกี่ยวกับระบบประสาทอื่น ๆ แน่ใจว่ามันเคยทำมาสำหรับความผิดปกติทางอารมณ์ที่พวกเขาค่อนข้างใหม่ใน DSM)

ใช่แล้ว "หวัด" AI มีประโยชน์อยู่แล้ว แต่ AI อารมณ์สามารถนำไปใช้กับพื้นที่ใหม่ที่ไม่สามารถสำรวจได้โดยใช้ AI เย็นเพียงอย่างเดียว มันจะช่วยในการทำความเข้าใจสมองของเราเองอย่างแน่นอนเพราะอารมณ์เป็นส่วนสำคัญ


2

ฉันคิดว่ามันขึ้นอยู่กับการประยุกต์ใช้ AI เห็นได้ชัดว่าถ้าฉันพัฒนา AI ที่มีวัตถุประสงค์เพื่อทำภารกิจเฉพาะเจาะจงภายใต้การดูแลของมนุษย์ก็ไม่จำเป็นต้องมีอารมณ์ แต่ถ้าวัตถุประสงค์ของ AI คือการทำงานด้วยตนเองอย่างอิสระอารมณ์หรือความเห็นอกเห็นใจก็มีประโยชน์ ตัวอย่างเช่นลองนึกถึง AI ที่ทำงานในโดเมนทางการแพทย์ ที่นี่อาจเป็นประโยชน์สำหรับ AI ที่จะมีความเห็นอกเห็นใจเพียงเพื่อให้ผู้ป่วยสะดวกสบายมากขึ้น หรือเป็นอีกตัวอย่างหนึ่งให้คิดถึงหุ่นยนต์ที่ทำหน้าที่เป็นพี่เลี้ยง อีกครั้งเป็นที่ชัดเจนว่าอารมณ์และการเอาใจใส่จะเป็นประโยชน์และพึงปรารถนา แม้แต่สำหรับโปรแกรม AI ช่วย (สมาร์ทโฮมคำพูด) อารมณ์และการเอาใจใส่สามารถเป็นที่พึงปรารถนาที่จะทำให้คนสะดวกสบายมากขึ้น

ในทางกลับกันถ้า AI กำลังทำงานในสายการประกอบก็ไม่จำเป็นต้องมีอารมณ์และความเห็นอกเห็นใจ (ในทางตรงข้ามในกรณีนั้น


2

AIs ที่แข็งแกร่ง

สำหรับ AI ที่แข็งแกร่งคำตอบสั้น ๆ คือการขอความช่วยเหลือเมื่อพวกเขาอาจไม่รู้ด้วยซ้ำว่าความช่วยเหลือที่ควรจะเป็นคืออะไร

ขึ้นอยู่กับว่า AI จะทำอะไร ถ้ามันควรจะแก้งานง่าย ๆ เพียงอย่างเดียวได้อย่างสมบูรณ์แบบและเป็นมืออาชีพอารมณ์จะไม่เป็นประโยชน์อย่างแน่นอน แต่ถ้ามันควรจะเรียนรู้สิ่งใหม่แบบสุ่มมันจะมีจุดหนึ่งที่พบสิ่งที่ไม่สามารถจัดการได้

ใน Lee Sedol vs AlphaGo การจับคู่ที่ 4 โปรบางคนที่พูดว่าคอมพิวเตอร์ไม่มีอารมณ์มาก่อนแสดงความคิดเห็นว่าบางที AlphaGo ก็มีอารมณ์เช่นกันและแข็งแกร่งกว่ามนุษย์ ในกรณีนี้เรารู้ว่าพฤติกรรมที่บ้าคลั่งของ AlphaGo ไม่ได้เกิดจากการเพิ่มสิ่งที่เรียกว่า "อารมณ์" แต่มีข้อบกพร่องในอัลกอริทึม แต่มันก็ทำตัวเหมือนมันตื่นตระหนก

หากเกิดเหตุการณ์นี้ขึ้นมากมายสำหรับ AI อาจมีข้อได้เปรียบหากสามารถรู้เรื่องนี้และคิดสองครั้งถ้าเกิดขึ้น หาก AlphaGo ตรวจพบปัญหาและเปลี่ยนกลยุทธ์มันอาจเล่นได้ดีขึ้นหรือแย่ลง มันไม่น่าจะเลวร้ายไปกว่านี้หากมันไม่ได้ทำการคำนวณสำหรับวิธีการอื่นใดเลย ในกรณีที่มันเล่นแย่กว่านี้เราอาจพูดว่ามันมี "อารมณ์" และนี่อาจเป็นเหตุผลที่บางคนคิดว่าการมีอารมณ์อาจเป็นข้อบกพร่องของมนุษย์ แต่นั่นไม่ใช่สาเหตุที่แท้จริงของปัญหา สาเหตุที่แท้จริงคือมันไม่รู้วิธีการรับประกันการชนะและการเปลี่ยนกลยุทธ์เป็นเพียงการพยายามแก้ไขปัญหา ผู้แสดงความคิดเห็นคิดว่ามีวิธีที่ดีกว่า (ซึ่งไม่รับประกันว่าจะชนะ แต่มีโอกาสมากกว่า) แต่อัลกอริธึมไม่ได้ ' ไม่สามารถค้นหาสถานการณ์นี้ได้ แม้แต่สำหรับมนุษย์การแก้ไขสิ่งต่าง ๆ ที่เกี่ยวข้องกับอารมณ์ไม่น่าจะเป็นการขจัดอารมณ์ แต่การฝึกอบรมบางอย่างเพื่อให้แน่ใจว่าคุณเข้าใจสถานการณ์เพียงพอที่จะกระทำอย่างสงบ

จากนั้นมีบางคนต้องโต้แย้งว่านี่เป็นอารมณ์หรือไม่ เรามักจะไม่พูดว่าแมลงขนาดเล็กมีอารมณ์เหมือนมนุษย์เพราะเราไม่เข้าใจพวกเขาและไม่เต็มใจที่จะช่วยเหลือพวกเขา แต่มันง่ายที่จะรู้ว่าบางคนสามารถตื่นตระหนกในสถานการณ์ที่สิ้นหวังเช่นเดียวกับ AlphaGo ฉันจะบอกว่าปฏิกิริยาเหล่านี้มีพื้นฐานมาจากตรรกะเดียวกันและอย่างน้อยก็เป็นเหตุผลว่าทำไมอารมณ์ความรู้สึกคล้ายคนอาจมีประโยชน์ พวกเขาไม่ได้แสดงออกด้วยวิธีที่มนุษย์เข้าใจได้เพราะพวกเขาไม่ได้ตั้งใจจะเรียกมนุษย์มาขอความช่วยเหลือ

หากพวกเขาพยายามที่จะเข้าใจพฤติกรรมของตนเองหรือเรียกคนอื่นมาขอความช่วยเหลืออาจเป็นเรื่องดีที่จะเป็นเหมือนมนุษย์ สัตว์เลี้ยงบางตัวสามารถสัมผัสอารมณ์ความรู้สึกของมนุษย์และแสดงอารมณ์ที่มนุษย์เข้าใจได้ในระดับหนึ่ง จุดประสงค์คือการมีปฏิสัมพันธ์กับมนุษย์ พวกเขาพัฒนาความสามารถนี้เพราะพวกเขาต้องการมันในบางจุด เป็นไปได้ว่า AI ที่แข็งแกร่งเต็มรูปแบบก็ต้องการเช่นกัน นอกจากนี้โปรดทราบว่าการตรงกันข้ามกับการมีอารมณ์เต็มอาจจะกลายเป็นบ้า

มันอาจเป็นวิธีที่รวดเร็วในการสูญเสียความไว้วางใจใด ๆ หากมีคนใช้อารมณ์เลียนแบบมนุษย์ด้วยความเข้าใจเพียงเล็กน้อยในรุ่นแรก

AIS อ่อนแอ

แต่มีจุดประสงค์ใดบ้างสำหรับพวกเขาที่จะมีอารมณ์ก่อนใครบางคนต้องการ AI ที่แข็งแกร่ง ฉันจะบอกว่าไม่มีไม่มีเหตุผลโดยธรรมชาติที่พวกเขาจะต้องมีอารมณ์ แต่ย่อมมีคนต้องการใช้อารมณ์เลียนแบบอยู่ดี การที่ "เรา" ต้องการให้พวกเขามีอารมณ์เป็นเรื่องไร้สาระหรือเปล่า

ความจริงก็คือบางโปรแกรมที่ไม่มีความฉลาดมีองค์ประกอบ "อารมณ์" บางอย่างในส่วนต่อประสานผู้ใช้ พวกเขาอาจดูไม่เป็นมืออาชีพ แต่ไม่ใช่ทุกงานที่ต้องการความเป็นมืออาชีพเพื่อให้พวกเขาสามารถยอมรับได้อย่างสมบูรณ์ พวกเขาเป็นเหมือนอารมณ์ในเพลงและศิลปะ ใครบางคนจะออกแบบ AI ที่อ่อนแอของพวกเขาด้วยวิธีนี้เช่นกัน แต่พวกเขาไม่ใช่อารมณ์ของ AIs จริงๆ แต่เป็นผู้สร้างของพวกเขา หากคุณรู้สึกดีขึ้นหรือแย่ลงเพราะอารมณ์ของพวกเขาคุณจะไม่ปฏิบัติต่อ individul AIs ที่แตกต่างกัน แต่รูปแบบหรือแบรนด์นี้โดยรวม

อีกวิธีหนึ่งคือบางคนสามารถปลูกฝังบุคลิกภาพบางอย่างเช่นในเกมสวมบทบาทที่นั่น อีกครั้งไม่มีเหตุผลที่พวกเขาจะต้องมี แต่ใครบางคนจะทำอย่างหลีกเลี่ยงไม่ได้เพราะพวกเขามีตลาดบางอย่างเมื่อเกมเล่นตามบทบาททำ

ในทั้งสองกรณีอารมณ์ไม่ได้มาจาก AI จริงๆ และมันจะง่ายต่อการนำไปใช้เพราะมนุษย์ไม่คาดหวังว่าพวกเขาจะเป็นเหมือนมนุษย์ แต่พยายามเข้าใจสิ่งที่พวกเขาตั้งใจจะหมายถึง มันง่ายกว่ามากที่จะยอมรับอารมณ์เหล่านี้

ด้านอารมณ์

ขออภัยเกี่ยวกับการโพสต์งานวิจัยต้นฉบับที่นี่ ฉันทำรายการอารมณ์ในปี 2012 และจากที่ฉันเห็น 4 ด้านของอารมณ์ หากพวกเขานำไปใช้ทั้งหมดฉันจะบอกว่าพวกเขาเป็นอารมณ์เดียวกันกับมนุษย์ ดูเหมือนจะไม่จริงหากมีเพียงบางส่วนที่นำมาใช้ แต่นั่นไม่ได้หมายความว่าพวกเขาผิดทั้งหมด

  • เหตุผลหรือปัญหาตรรกะดั้งเดิมที่ AI ไม่สามารถแก้ไขได้ AlphaGo มีเหตุผลอยู่แล้ว แต่ไม่มีอะไรอื่น ถ้าฉันต้องนิยามที่ถูกต้องฉันจะบอกว่ามันเป็นสภาวะที่ฮิวริสติกที่สำคัญหลายตัวไม่เห็นด้วยซึ่งกันและกัน
    • บริบทหรือส่วนใดของแนวทางปัจจุบันที่ถือว่าไม่ทำงานได้ดีและน่าจะถูกแทนที่ สิ่งนี้แยกความสัมพันธ์ที่เกี่ยวข้องกับความโศกเศร้าความกังวลและความหลงใหล
    • สถานะปัจจุบันหรือไม่ว่าจะรู้สึกเป็นผู้นำหรือไม่ว่าจะเป็นความเชื่อหรือข้อเท็จจริงที่ควรจะเลวร้ายก่อน (หรือไม่ดีมาตลอด) ถ้าสิ่งต่าง ๆ ผิดไป สิ่งนี้แยกความสัมพันธ์ที่เกี่ยวข้องกับความโศกเศร้าความรักและความภาคภูมิใจ
  • แผนหรือคำขอ ฉันคิดว่าสัตว์เลี้ยงในบ้านบางตัวมีสิ่งนี้อยู่แล้ว และฉันคิดว่าสิ่งเหล่านี้มีรูปแบบคงที่ซึ่งไม่ยากเกินไปที่จะมี แม้แต่ศิลปะก็ยังสามารถบรรจุได้อย่างง่ายดาย ต่างจากเหตุผลเหล่านี้ไม่น่าจะมีอยู่ในอัลกอริธึมและหลายคนสามารถปรากฏขึ้นพร้อมกัน
    • ใครควรจะมีความรับผิดชอบถ้าไม่มีอะไรเปลี่ยนไปตามอารมณ์ สิ่งนี้แยกความอยากรู้อยากเห็นความโกรธและความโศกเศร้า
    • แผนการที่ควรทำคืออะไรถ้าไม่มีการเปลี่ยนแปลงอารมณ์ สิ่งนี้แยกความผิดหวังความเศร้าและความประหลาดใจ
  • แหล่งที่มา หากไม่มีบริบทแม้แต่มนุษย์ก็ไม่สามารถบอกได้ว่าใครบางคนกำลังร้องไห้เพราะถูกย้ายหรือรู้สึกขอบคุณหรือยิ้มแย้มสำหรับความอับอายบางประเภท ในกรณีอื่น ๆ ส่วนใหญ่ไม่มีแม้แต่คำที่อธิบายคำเหล่านั้น มันไม่ได้สร้างความแตกต่างมากนักถ้า AI ไม่แยกแยะหรือแสดงสิ่งนี้เป็นพิเศษ เป็นไปได้ว่าพวกเขาจะเรียนรู้สิ่งเหล่านี้โดยอัตโนมัติ (และไม่ถูกต้องในฐานะมนุษย์) ในจุดที่พวกเขาสามารถเรียนรู้ที่จะเข้าใจภาษามนุษย์
  • การวัดเช่นปัญหาเร่งด่วนหรือสำคัญอย่างไรหรือแม้แต่อารมณ์ที่เป็นจริง ฉันว่ามันไม่สามารถนำมาใช้ใน AI มนุษย์ไม่จำเป็นต้องเคารพพวกเขาแม้ว่าพวกเขาจะเป็นเหมือนมนุษย์ แต่มนุษย์จะได้เรียนรู้วิธีที่จะเข้าใจ AI ถ้ามันสำคัญจริงๆแม้ว่าพวกเขาจะไม่เหมือนมนุษย์เลย ในความเป็นจริงฉันรู้สึกว่าบางอารมณ์อ่อนแอมาก (เช่นการคิดอะไรบางอย่างที่โง่และน่าเบื่อจนคุณไม่รู้วิธีแสดงความคิดเห็น) มีอยู่เกือบเฉพาะในอิโมติคอนที่มีคนตั้งใจจะแสดงอารมณ์นี้อย่างแน่นอนและแทบจะไม่ เห็นได้ชัดในชีวิตจริงหรือฉากที่ซับซ้อน ฉันคิดว่านี่อาจเป็นกรณีเริ่มต้นสำหรับ AIs ในกรณีที่เลวร้ายที่สุดพวกมันจะถูกเรียกว่า "อารมณ์" เป็นครั้งแรกเนื่องจากอีโมติคอนทำงานในกรณีเหล่านี้ดังนั้น

ดังนั้นเมื่อ AIs ที่แข็งแกร่งกลายเป็นไปได้สิ่งเหล่านี้จะไม่สามารถเข้าถึงได้แม้ว่าจะมีงานจำนวนมากที่ต้องทำการเชื่อมต่อ ดังนั้นฉันจะบอกว่าถ้าจะมีความจำเป็นสำหรับไอไอเอที่แข็งแกร่งพวกเขาจะมีอารมณ์อย่างแน่นอน


2

โดยอารมณ์เขาไม่ได้หมายถึงการเพิ่มอารมณ์ทุกประเภทลงใน AI เขาหมายถึงคนที่จะเป็นประโยชน์สำหรับการตัดสินใจที่สำคัญเท่านั้น พิจารณาเหตุการณ์นี้เป็นครั้งที่สอง:
สมมติว่ารถขับเคลื่อนด้วยตนเองของ AI กำลังขับรถผ่านทางหลวง คนที่นั่งอยู่ข้างในเป็นซีอีโอของ บริษัท และเขาทำงานช้ามากตามกำหนดเวลา หากเขาไม่ตรงเวลาจะมีการสูญเสียเงินหลายล้านดอลลาร์ AI ในรถถูกบอกให้ขับเร็วที่สุดและไปถึงปลายทาง และตอนนี้กระต่าย (หรือสัตว์อื่น ๆ ) เข้ามาขวางทาง ตอนนี้ถ้ารถทำการเบรกฉุกเฉินผู้โดยสารจะได้รับบาดเจ็บสาหัสและบวกจะมีการสูญเสียนับล้านเป็นซีอีโอจะไม่สามารถไปประชุม

ตอนนี้ AI จะทำอะไร? ฟังก์ชั่นยูทิลิตี้
ตั้งแต่ AI การตัดสินใจของพวกเขาจะขึ้นอยู่กับพวกเขาเท่านั้นฟังก์ชั่นยูทิลิตี้การกดปุ่มกระต่ายและดำเนินต่อไปอย่างมีเหตุผลจะแสดงตัวเลือกที่ดีกว่า แต่ AI ควรใช้การตัดสินใจนั้น

มีคำถามมากมายเช่นนี้ที่ AI อาจติดอยู่ในสถานการณ์ที่การตัดสินใจบนพื้นฐานของคุณธรรมจะมีบทบาทสำคัญ
สถานการณ์ข้างต้นเป็นเพียงตัวอย่างของมุมมอง


1

ทฤษฎีความคิด

ถ้าเราต้องการให้ AI ทั่วไปที่แข็งแกร่งทำงานได้ดีในสภาพแวดล้อมที่ประกอบด้วยมนุษย์ดังนั้นมันจะมีประโยชน์มากสำหรับมันที่จะมีทฤษฎีของจิตใจที่ดีที่ตรงกับพฤติกรรมของมนุษย์ ทฤษฏีทางจิตใจนั้นจำเป็นต้องมีอารมณ์เหมือนมนุษย์ไม่เช่นนั้นจะไม่ตรงกับความเป็นจริงของสิ่งแวดล้อม

สำหรับเราทางลัดที่ใช้บ่อยกำลังคิดอย่างชัดเจนว่า "ฉันจะทำอะไรในสถานการณ์นี้" "เหตุการณ์ใดที่ทำให้ฉันสามารถทำสิ่งที่พวกเขาเพิ่งทำไป?" "ฉันจะรู้สึกอย่างไรหากเกิดเหตุการณ์นี้ขึ้นกับฉัน " เราต้องการให้ AI มีความสามารถในการให้เหตุผลเช่นนี้เป็นประโยชน์และเป็นประโยชน์ช่วยให้คาดการณ์ได้ดีขึ้นในอนาคตและมีประสิทธิภาพมากขึ้น

แม้ในขณะที่มันจะดีกว่าสำหรับ AI ที่จะไม่ได้รับแรงผลักดันจากอารมณ์ที่แน่นอนเหล่านั้น (บางทีบางสิ่งในทิศทางนั้นจะมีประโยชน์ แต่มีแนวโน้มที่จะไม่เหมือนกันทั้งหมด) มันเปลี่ยนไปแทนที่จะคิดว่า " ฉันจะรู้สึกอย่างไร" มันควรจะสามารถตั้งสมมติฐานว่ามนุษย์ทั่วไปจะรู้สึกอย่างไร ที่ต้องมีการใช้ระบบย่อยที่สามารถสร้างแบบจำลองอารมณ์ความรู้สึกของมนุษย์ได้อย่างแม่นยำ


1

ระวัง! คำถามของคุณมีสองส่วน อย่าแช่งความหมายในคำถามของคุณมิฉะนั้นคุณจะไม่รู้จริงๆว่าคุณกำลังตอบคำถามอะไรอยู่

  1. เราควรปล่อยให้ AGI สัมผัสกับอารมณ์ต่อ "ประสบการณ์เชิงคุณภาพ" หรือไม่? (ในแง่ที่คุณรู้สึกว่า "หัวใจของคุณติดไฟ" เมื่อคุณตกหลุมรัก)

ดูเหมือนจะไม่มีจุดประสงค์ที่ชัดเจนว่าทำไมเราถึงต้องการสิ่งนั้น สมมุติฐานเราอาจมีบางอย่างที่แยกไม่ออกจากอารมณ์ แต่ก็ไม่มีประสบการณ์เชิงคุณภาพที่เกี่ยวข้องกับ AGI แต่เราไม่ได้อยู่ในตำแหน่งทางวิทยาศาสตร์ที่เราสามารถเริ่มตอบคำถามใด ๆ เกี่ยวกับต้นกำเนิดของประสบการณ์เชิงคุณภาพดังนั้นฉันจะไม่รบกวนคำถามนี้มากขึ้น

  1. เราควรให้ AGI มีอารมณ์ต่อความเท่าเทียมในการใช้งานจากผู้สังเกตการณ์ภายนอกหรือไม่?

IMHO ใช่ แม้ว่าเราจะสามารถจินตนาการ AI ที่ไม่ดีโดยไม่ต้องทำอะไรเลย แต่เราหวังว่า AI จะสามารถรวมเข้ากับคุณค่าและอารมณ์ของมนุษย์ซึ่งเป็นปัญหาของการจัดแนว ดังนั้นจึงเป็นเรื่องธรรมดาที่จะสันนิษฐานว่า AGI ที่มีการกำหนดขอบเขตอย่างดีใด ๆ จะมีบางสิ่งที่คล้ายกับอารมณ์ความรู้สึกถ้ามันรวมเข้ากับมนุษย์ได้ดี

แต่ถ้าไม่มีทฤษฎีของจิตใจที่ชัดเจนมันก็ไม่ได้เริ่มที่จะถาม: "AGI ของเราควรมีอารมณ์หรือไม่" บางทีอาจมีบางสิ่งที่สำคัญเกี่ยวกับอารมณ์ความรู้สึกของเราที่ทำให้เรามีความรู้ความเข้าใจตัวแทนที่ AGI ต้องการเช่นกัน

อันที่จริงแล้วอารมณ์ความรู้สึกมักมองข้ามการรับรู้ ผู้คนต่างคิดว่าตัวละครคล้ายสป็อคที่ไร้อารมณ์นั้นเป็นจุดสูงสุดของความฉลาดของมนุษย์ แต่อารมณ์ความรู้สึกเป็นสิ่งสำคัญในการตัดสินใจดูบทความนี้เพื่อเป็นตัวอย่างของปัญหาเกี่ยวกับ "สติปัญญาไม่มีอารมณ์"

คำถามติดตามจะเป็น "อารมณ์แบบไหนที่ AGI จะพัฒนา?" แต่อีกครั้งเราไม่อยู่ในฐานะที่จะตอบว่า (ยัง)


0

จุดประสงค์อะไรที่จะได้รับจากการพัฒนา AI ที่มีอารมณ์คล้ายมนุษย์

ปัญหาที่ซับซ้อนใด ๆ ที่เกี่ยวข้องกับอารมณ์ความรู้สึกของมนุษย์ซึ่งการแก้ปัญหาต้องการความสามารถในการเห็นอกเห็นใจกับสถานะทางอารมณ์ของมนุษย์จะได้รับการบริการอย่างมีประสิทธิภาพมากที่สุดโดยตัวแทนที่สามารถเห็นอกเห็นใจกับอารมณ์ของมนุษย์

การเมือง. รัฐบาล. นโยบายและการวางแผน หากสิ่งนั้นไม่มีความรู้อย่างใกล้ชิดเกี่ยวกับประสบการณ์ของมนุษย์มันจะไม่สามารถให้คำตอบที่ชัดเจนกับปัญหาทั้งหมดที่เราพบในประสบการณ์มนุษย์ของเรา


การเมืองและจุดยืนของรัฐบาลเป็นตัวอย่างที่ดีเยี่ยม อย่างไรก็ตามมุมมองของฉันคือ AI ต้องการเพียงเพื่อให้สามารถเข้าใจอารมณ์และไม่จำเป็นต้องมีประสบการณ์
Seth Simba

0

อารมณ์ของมนุษย์นั้นเชื่อมโยงกับคุณค่าของมนุษย์และความสามารถของเราในการร่วมมือและจัดตั้งสังคม

เพียงเพื่อให้เป็นตัวอย่างที่ง่าย: คุณตอบสนองคนแปลกหน้าที่ต้องการความช่วยเหลือที่คุณรู้สึกเห็นอกเห็นใจ สิ่งนี้บังคับให้คุณต้องช่วยเหลือเขาด้วยตัวเอง สมมติว่าในครั้งต่อไปที่คุณพบเขาคุณต้องการอะไรซักอย่าง สมมติว่าเขาไม่ช่วยคุณด้วยคุณจะรู้สึกโกรธโกรธอารมณ์นี้บังคับให้คุณลงโทษเขาด้วยตัวเอง ในทางกลับกันถ้าเขาไม่ช่วยคุณก็รู้สึกละอายใจใจ สิ่งนี้บังคับให้เขาช่วยคุณจริง ๆ หลีกเลี่ยงความโกรธของคุณและทำให้การลงทุนครั้งแรกของคุณคุ้มค่า คุณทั้งสองได้รับประโยชน์

ดังนั้นอารมณ์ทั้งสามนี้จึงเป็นวงกลมของความช่วยเหลือซึ่งกันและกัน เอาใจใส่ในการเริ่มต้นความโกรธที่จะลงโทษผู้ทำลายและความอับอายที่จะหลีกเลี่ยงความโกรธ สิ่งนี้นำไปสู่แนวคิดเรื่องความยุติธรรม

จากการที่การจัดวางคุณค่าเป็นหนึ่งในปัญหาใหญ่ของ AGI อารมณ์เหมือนมนุษย์ทำให้ฉันเป็นแนวทางที่ดีต่อ AIs ที่แบ่งปันค่านิยมของเราและบูรณาการเข้ากับสังคมของเราได้อย่างราบรื่น


ตกลงคะแนน แต่ถ้าคุณจะไปพ่อคุณจะเห็นว่าอารมณ์เป็นเพียงทางลัดสำหรับคำอธิบายเหตุผลว่าทำไมพวกเขาหรือไม่เป็นประโยชน์ กฎอาจมาจากอารมณ์และชีววิทยาของเรา และกฎเหล่านั้นจะถูกเก็บไว้ในรูปแบบการบีบอัดและไม่ชัดเจนว่าเป็นอารมณ์และชีววิทยา สำหรับเรามันเป็นสิ่งจำเป็น แต่ไม่ใช่สำหรับ ai แม้ว่าสำหรับเรามันอาจทำงานเพื่อปรับให้เหมาะสมสำหรับ AI หากค่าใช้จ่ายของการดำเนินการดังกล่าวในรูปแบบดิจิทัลจะต่ำลงดังนั้นการดำเนินการตามกฎ ปัญหาเกี่ยวกับกฎเป็นเพียงเรื่องเดียวเราเองก็ไม่รู้จักพวกเขาอย่างเต็มที่ แต่งาน AI นั้นแคบกว่าเรามากและอาจไม่ต้องการกฎมากนัก
MolbOrg
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.