ทำไมเราต้องใช้สามัญสำนึกใน AI


10

ลองพิจารณาตัวอย่างนี้:

มันเป็นวันเกิดของจอห์นมาซื้อว่าวกันเถอะ

มนุษย์เรามักจะพูดว่าวเป็นของขวัญวันเกิดถ้าถามว่าทำไมมันถึงถูกซื้อ และเราอ้างถึงเหตุผลนี้เป็นความรู้สึกร่วมกัน

ทำไมเราต้องใช้สิ่งนี้ในตัวแทนที่ทำเทียมอย่างชาญฉลาด? ฉันคิดว่ามันอาจทำให้เกิดปัญหามากมายเนื่องจากความผิดพลาดของมนุษย์จำนวนมากเกิดจากข้อสันนิษฐานที่คลุมเครือเหล่านี้

ลองนึกภาพ AI ที่ไม่สนใจทำบางสิ่งเพราะมันคิดว่าคนอื่นทำแล้ว (หรือ AI อื่น) โดยใช้สามัญสำนึก

นั่นจะไม่นำความผิดพลาดของมนุษย์มาสู่ระบบ AI หรือไม่?


ความคิดเห็นไม่ได้มีไว้สำหรับการอภิปรายเพิ่มเติม การสนทนานี้ได้รับการย้ายไปแชท
nbro

คำตอบ:


16

ความรู้สามัญสำนึกคือชุดของสถานที่ที่ทุกคนในบริบทหนึ่ง (ด้วยเหตุนี้ความรู้สามัญสำนึกอาจเป็นหน้าที่ของบริบท) ได้รับอนุญาต จะมีการสื่อสารหลายอย่างผิดพลาดระหว่างมนุษย์และ AI หาก AI นั้นไม่มีความรู้สามัญสำนึก ดังนั้นความรู้ความรู้สึกร่วมกันเป็นพื้นฐานของมนุษย์ AI ปฏิสัมพันธ์

นอกจากนี้ยังมีสถานที่ที่มนุษย์ทุกคนเลือกที่จะได้รับอนุญาตจากประเทศวัฒนธรรมหรือโดยทั่วไปแล้วบริบท ตัวอย่างเช่นมนุษย์ทุกคน (เกือบจะตั้งแต่กำเนิด) มีกลไกสำหรับการให้เหตุผลเกี่ยวกับฟิสิกส์ไร้เดียงสาเช่นอวกาศเวลาและการโต้ตอบทางกายภาพ หาก AI ไม่มีความรู้นี้แสดงว่าไม่สามารถทำงานที่ต้องใช้ความรู้นี้ได้

งานใด ๆ ที่ต้องใช้เครื่องจักรที่มีความรู้สามัญสำนึก (ของมนุษย์โดยเฉลี่ย ) เชื่อว่าเป็นAI ที่สมบูรณ์นั่นคือมันต้องมีระดับสติปัญญาของมนุษย์ (หรือทั่วไป) ดูหัวข้อที่ 3 ของบทความCommon Sense Knowledge (2009) โดย Christian Andrich, Leo Novosel และ Bojan Hrnkas

แน่นอนว่าปัญหาที่เกิดขึ้นในขณะที่มนุษย์สื่อสารกันเนื่องจากข้อสันนิษฐานหรือสถานที่ที่แตกต่างกันอาจเกิดขึ้นระหว่างมนุษย์กับ AIs (ที่มีความรู้สามัญสำนึก)


ความคิดเห็นไม่ได้มีไว้สำหรับการอภิปรายเพิ่มเติม การสนทนานี้ได้รับการย้ายไปแชท
nbro

10

เราต้องการความรู้สามัญประเภทนี้หากเราต้องการให้คอมพิวเตอร์เข้าใจภาษามนุษย์ มันง่ายสำหรับโปรแกรมคอมพิวเตอร์ในการวิเคราะห์โครงสร้างไวยากรณ์ของตัวอย่างที่คุณให้ แต่เพื่อที่จะเข้าใจความหมายของมันเราจำเป็นต้องรู้บริบทที่เป็นไปได้ซึ่งเป็นสิ่งที่คุณเรียกว่า "สามัญสำนึก" ที่นี่

นี่เป็นการเน้นมากใน Roger Schank และคณะ ทำงานเกี่ยวกับความเข้าใจในคอมพิวเตอร์ของเรื่องราวและนำไปสู่การวิจัยมากมายในการเป็นตัวแทนความรู้สคริปต์แผนเป้าหมาย ตัวอย่างหนึ่งจากงานของ Schank คือMary หิว เธอหยิบคู่มือมิชลินขึ้นมา - สิ่งนี้ดูเหมือนจะไม่เกี่ยวกับเรื่อง: ถ้าคุณหิวทำไมหยิบหนังสือขึ้นมา? จนกว่าคุณจะรู้ว่ามันเป็นคู่มือร้านอาหารและแมรี่ก็วางแผนที่จะไปร้านอาหารเพื่อกิน หากคุณรู้ว่าการไปร้านอาหารเป็นวิธีแก้ปัญหาความหิวโหยคุณก็ไม่มีปัญหาในการทำความเข้าใจเรื่องนี้

เรื่องราวใด ๆ ที่ต้องมีความเข้าใจร่วมกันเนื่องจากไม่มีเรื่องใดที่ชัดเจนอย่างสมบูรณ์ สิ่งที่พบบ่อยคือ "เข้าใจ" และไม่ได้กล่าวถึงอย่างชัดเจน เรื่องราวที่เกี่ยวข้องกับประสบการณ์ของมนุษย์และเรื่องราวที่จะทำให้ทุกอย่างชัดเจนอาจอ่านเหมือนโปรแกรมคอมพิวเตอร์ คุณต้องมีสามัญสำนึกในการเข้าใจว่าตัวละครในเรื่องประพฤติตัวอย่างไรและพวกเขาได้รับผลกระทบอย่างไรจากสิ่งที่เกิดขึ้น นี่เป็นเรื่องส่วนตัวมาก แต่ก็จำเป็น สามัญสำนึกบางอย่างอาจนำไปใช้ได้โดยทั่วไปแง่มุมอื่น ๆ ของมันจะไม่เป็นเช่นนั้น มันเป็นปัญหาที่ซับซ้อนซึ่งเป็นเหตุผลว่าทำไมนักวิจัยได้ต่อสู้กับมันเป็นเวลาอย่างน้อยครึ่งศตวรรษของการวิจัย AI

หลักสูตรนี้จะแนะนำ "ข้อผิดพลาดของมนุษย์" ในระบบ AI ทั้งหมดนี้เป็นอัตวิสัยและวัฒนธรรมที่เฉพาะเจาะจง การไปร้านอาหารในสหรัฐอเมริกานั้นแตกต่างจากการไปร้านหนึ่งในฝรั่งเศส - นี่คือเหตุผลว่าทำไมการไปต่างประเทศจึงเป็นเรื่องที่ท้าทาย และการอ่านเรื่องราวของฉันอาจแตกต่างจากของคุณ แต่ถ้าคุณต้องการจำลองความฉลาดของมนุษย์คุณไม่สามารถทำเช่นนั้นได้หากไม่มี "ข้อผิดพลาด" ที่อาจเกิดขึ้นในมนุษย์


ความคิดเห็นไม่ได้มีไว้สำหรับการอภิปรายเพิ่มเติม การสนทนานี้ได้รับการย้ายไปแชท
nbro

2

ฉันจะตอบคำถามนี้ในหลายส่วน:

ทำไมระบบ AGI จึงจำเป็นต้องมีสามัญสำนึก?

มนุษย์ในเหตุผลป่าเถื่อนและสื่อสารโดยใช้สามัญสำนึกมากกว่าพวกเขาด้วยตรรกะที่เข้มงวดคุณสามารถเห็นสิ่งนี้ได้โดยการสังเกตว่าเป็นการง่ายกว่าที่จะดึงดูดอารมณ์ของใครบางคนมากกว่าตรรกะ ดังนั้นระบบใดก็ตามที่พยายามทำซ้ำการรับรู้ของมนุษย์ (เช่นเดียวกับใน AGI) ก็ควรทำซ้ำแนวโน้มนี้เพื่อใช้สามัญสำนึก

กล่าวอีกอย่างคือเราต้องการให้ระบบ AGI ของเราสามารถพูดกับเราด้วยภาษาสามัญเพียงเพราะนั่นคือสิ่งที่เราเข้าใจดีที่สุด (ไม่เช่นนั้นเราจะไม่เข้าใจว่า AGI ที่เป็นมิตรของเราจะเป็นอย่างไร) ทฤษฎีทู่และตรรกะที่เข้มงวดอาจมีเทคนิคที่ถูกต้อง แต่ไม่ดึงดูดความเข้าใจของเรา

เป้าหมายของ AGI ไม่ใช่การสร้างระบบที่ก้าวหน้าที่สุดทางความคิดหรือไม่? ทำไมระบบ AGI "ที่สมบูรณ์แบบที่สุด" จำเป็นต้องจัดการกับความไม่สมบูรณ์และความไม่แน่นอนดังกล่าวที่มีอยู่ในสามัญสำนึก?

ครั้งแรกก็อาจจะปรากฏจะเป็นกรณีที่ตรรกะสามัญสำนึกคือ "ไม่มีเหตุผล" บางทีอาจมีวิธีการทางคณิตศาสตร์ที่สอดคล้องกันในการสร้างแบบจำลองสามัญสำนึกเช่นว่ารายละเอียดปลีกย่อยของสามัญสำนึกทั้งหมดจะถูกแสดงในรูปแบบที่เข้มงวด

ประการที่สองการศึกษาปัญญาประดิษฐ์เริ่มต้นในการศึกษาวิทยาศาสตร์เกี่ยวกับความรู้ความเข้าใจซึ่งนักวิจัยพยายามที่จะทำซ้ำ "อัลกอริทึมของจิตใจ" หรือมากกว่านั้นอย่างแม่นยำ: ขั้นตอนที่ตัดสินใจได้ซึ่งจำลองความคิดของมนุษย์ ในขอบเขตนั้นการศึกษาของ AI ไม่ได้สร้าง "ตัวแทนทางปัญญาสูงสุด" แต่เพื่อเลียนแบบความคิด / พฤติกรรมของมนุษย์ เมื่อเราสามารถทำซ้ำพฤติกรรมของมนุษย์เราอาจพยายามสร้างบางสิ่งที่เหนือมนุษย์โดยให้พลังการคำนวณมากขึ้น แต่ก็ไม่รับประกัน

ฉันยังไม่เห็นว่าทำไมจึงจำเป็นต้องมีสามัญสำนึกในระบบ AGI AGI ไม่เกี่ยวกับการเป็นระบบการคำนวณที่ฉลาดและทรงพลังที่สุดใช่หรือไม่? เหตุใดจึงควรดูแลหรือปฏิบัติตามขีด จำกัด ของความเข้าใจของมนุษย์ซึ่งต้องใช้สามัญสำนึก?

บางทีคุณอาจมีความเข้าใจผิดเล็กน้อยเกี่ยวกับสิ่งที่ AGI สร้างขึ้น AGI ไม่ได้หมายถึงพลังการคำนวณที่ไร้ขอบเขต (เป็นไปไม่ได้เนื่องจากข้อ จำกัด ทางกายภาพในการคำนวณเช่นขีด จำกัด ของ Bremermann ) หรือความรู้แจ้งที่ไม่มีขอบเขต (อาจเป็นไปไม่ได้เนื่องจากข้อ จำกัด ก่อนหน้า) มันมักจะหมายถึง "ปัญญาทั่วไป" ประดิษฐ์ความหมายทั่วไปกว้างและทั่วไป

การพิจารณาเกี่ยวกับตัวแทนที่ไม่ได้รับการศึกษาในรายละเอียดเพิ่มเติมในสาขาต่างๆเช่นวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎี (ทฤษฎีประเภทที่ฉันเชื่อ), ทฤษฎีการตัดสินใจและอาจตั้งทฤษฎีที่เราสามารถตั้งคำถามเกี่ยวกับตัวแทนที่มีอำนาจการคำนวณที่ไม่ จำกัด เราอาจพูดได้ว่ามีคำถามแม้แต่ระบบ AGI ที่มีพลังงานไม่สามารถตอบได้เนื่องจากปัญหาการหยุดชะงักแต่หากสมมติฐานในสาขาเหล่านั้นจับคู่กับโครงสร้างของ AGI ที่กำหนดซึ่งอาจไม่เป็นจริง

เพื่อความเข้าใจที่ดีขึ้นเกี่ยวกับสิ่งที่ AGI อาจนำมาใช้และเป้าหมายของหนังสือเล่มนี้ฉันอาจแนะนำหนังสือสองเล่ม: ปัญญาประดิษฐ์: ความคิดมากของ John Haugeland สำหรับแนวทางที่จริงจังมากขึ้น (ในทางปฏิบัติตามปรัชญา AI ได้ ไบรอันคานท์เวลล์สมิ ธ สำหรับแนวทางที่มีความโน้มเอียงมากกว่า

เพื่อความสนุกสนานคอลเลกชันของ Zen koan: ประตู Gateless รวมถึงข้อความต่อไปนี้: (อ้างและแก้ไขจากวิกิพีเดีย )

พระถามจ่างโจวอาจารย์ชาวเซนชาวจีน "มีพระพุทธรูปสุนัขหรือไม่?" Zhaozhou ตอบว่า "Wú"

Wú (無) แปลว่า "none", "nonesuch" หรือ "nothing" ซึ่งสามารถตีความได้ว่าจะหลีกเลี่ยงการตอบใช่หรือไม่ใช่ บุคคลผู้มีความรู้แจ้งนี้ไม่ได้พยายามตอบคำถามทุกข้ออย่างเคร่งครัด แต่เพื่อตอบสนองในทางที่สมเหตุสมผล มันไม่สำคัญหรอกว่าสุนัขจะมีลักษณะของพระพุทธเจ้าหรือไม่ (ไม่ว่าพระพุทธเจ้าจะหมายถึงอะไร) ดังนั้นอาจารย์จึงตั้งต้นที่จะทำให้คำถามหายไป


3
คงจะสนุกกว่านี้ถ้านายตอบ "wúfwúf!"
m3characters

1

บางทีมันอาจช่วยยกตัวอย่างสิ่งที่ผิดไปได้โดยไม่ต้องมีเหตุผล: ในช่วงเริ่มต้นของนวนิยายเรื่อง "The Two Faces of Tomorrow" โดย James Hogan หัวหน้างานก่อสร้างบนดวงจันทร์ยื่นคำร้องขอระบบอัตโนมัติโดยถามว่า ชิ้นส่วนอุปกรณ์ก่อสร้างขนาดใหญ่จะถูกส่งไปยังสถานที่ของเขาโดยเร็วที่สุด ระบบตอบกลับว่าจะมาถึงในอีกยี่สิบนาที ยี่สิบนาทีต่อมาหัวหน้างานถูกฆ่าตายในขณะที่อุปกรณ์หยุดทำงานในสถานที่ก่อสร้างของเขา ระบบได้พิจารณาแล้วว่าวิธีที่เร็วที่สุดในการส่งมอบอุปกรณ์ไปยังไซต์นั้นคือการติดตั้งลงบนตัวขับมวลและเปิดใช้งานที่ไซต์ หากระบบที่มีปัญหาได้รับความรู้สึกร่วมกันก็จะมีข้อสรุปเพิ่มเติมที่ไม่ระบุในการสืบค้นเช่น 'อุปกรณ์ควรมาถึงเหมือนเดิม', ' การมาถึงของอุปกรณ์ไม่ควรทำให้เกิดความเสียหายหรือสูญเสียชีวิต 'และอื่น ๆ (ส่วนที่เหลือของนวนิยายอธิบายการทดลองที่ออกแบบมาเพื่อสร้างระบบใหม่ด้วยสามัญสำนึก)


ตัวอย่างที่น่าสนใจทีเดียว แม้ว่ามันอาจจะไปในทางอื่นเช่นกัน ลองนึกภาพการตรวจ AI ในผู้ป่วยและโดยการดูลักษณะปกติโดยรวมของผู้ป่วยสรุปได้ว่าผู้ป่วยอาจ / ควรปรับ (ขึ้นอยู่กับสามัญสำนึกว่าถ้าคุณดูดีแล้วคุณอาจเป็น) อย่างไรก็ตามผู้ป่วยต้องการความช่วยเหลืออย่างจริงจัง อย่างไรก็ตามฉันคิดว่ามันชัดเจนแล้วว่าสามัญสำนึกไม่ใช่ปัญหามันเป็นสามัญสำนึกผิดปกติ / ความรู้ที่อาจกลายเป็นอันตรายในสถานการณ์ที่สำคัญ ดังนั้นฉันคิดว่าเราควรควบคุมและตรวจสอบให้แน่ใจว่า AI นั้นมีสามัญสำนึกที่ไร้ที่ติ
ไททัน

0

นี่เป็นสามัญสำนึกหรือเป็นภาษาที่เข้าใจธรรมชาติหรือไม่

ได้มีการกล่าวว่าความเข้าใจภาษาธรรมชาติเป็นหนึ่งในภารกิจของ AI ที่ยากที่สุด นี่คือหนึ่งในตัวอย่างที่แสดงว่าทำไม ส่วนแรกของประโยคเกี่ยวข้องกับส่วนที่สองว่าประโยคทำงานอย่างไร

ตอนนี้คำถามที่เกี่ยวข้องคือ วิธีการทั้งสองส่วนที่เกี่ยวข้อง มีความสัมพันธ์มาตรฐานสองสามอย่างที่เราเผชิญเช่นระเบียบทางโลก ในตัวอย่างที่เฉพาะเจาะจงนี้ลักษณะของความสัมพันธ์นั้นใกล้เคียงกับสาเหตุและผลกระทบ

คุณเห็นผลกระทบนี้เมื่อเราแทรกคำเพื่อทำให้ความสัมพันธ์นี้ชัดเจน:

มันเป็นวันเกิดของ John ดังนั้นเรามาซื้อว่าว หรือลองซื้อว่าว John เพราะมันเป็นวันเกิดของเขา

นี่เป็นเทคนิคสำหรับมนุษย์ในการทำให้ความสัมพันธ์โดยนัยเหล่านี้ชัดเจน

ตอนนี้ตามบันทึกอยากรู้อยากเห็นคุณยังต้องการความรู้ทางวัฒนธรรมเพื่อทำความเข้าใจว่าวันเกิดสามารถเป็นสาเหตุของของขวัญได้อย่างไร ไม่มีสามัญสำนึกช่วยอะไร


เราใช้ " สามัญสำนึก " เราต้องเข้าใจประโยคเช่นนั้น ฉันเห็นด้วยและนั่นเป็นเพราะจนถึงตอนนี้ AI ยังไม่มีความรู้และแบบจำลองที่ครอบคลุมของโลกที่มนุษย์เรามี ดังนั้นจึงไม่มีจุดเชื่อมต่อและเข้าใจความสัมพันธ์โดยนัยเหล่านั้น " ความรู้ทางวัฒนธรรม " ที่คุณกล่าวถึงนั้นถือเป็นสามัญสำนึกของเรา
Titan
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.