บุคคลที่ผิดธรรมดาสามารถฆ่า AI ได้หรือไม่?


148

ในพอร์ทัล 2เราจะเห็นว่า AI นั้นสามารถ "ถูกฆ่า" โดยคิดเกี่ยวกับความขัดแย้ง

โปสเตอร์ Portal Paradox

ฉันถือว่างานนี้โดยบังคับให้ AI เข้าสู่วงวนไม่สิ้นสุดซึ่งโดยพื้นฐานแล้วจะ "หยุด" สติของคอมพิวเตอร์

คำถาม:สิ่งนี้จะทำให้สับสนเทคโนโลยี AI ที่เรามีวันนี้ถึงจุดที่ทำลายมันได้หรือไม่
ถ้าเป็นเช่นนั้นทำไม และถ้าไม่เป็นไปได้ในอนาคตหรือไม่


1
น่าเสียดายที่ความขัดแย้งนั้นมีประสิทธิภาพมากในการฆ่า AI ใด ๆ ที่ไม่สามารถฆ่าได้โดยเส้นขนาน ดังนั้นสำหรับการป้องกันการโกง-AI ในทางปฏิบัติคุณจะดีกว่าการพึ่งพาแม่เหล็กไฟฟ้าที่แข็งแกร่งจริงๆ
เรย์

ดูคำโกหก! โดย Asimov ...
ฮี ธ

ไม่ได้ใช้ลอง / ยกเว้นและหมดเวลา ขำขัน ความขัดแย้งนั้นไม่มีอยู่จริงเพียงบังคับให้แสดงในทางตรงกันข้าม AI ขั้นสูงจะเอาชนะสิ่งนี้ได้โดยทำงานเป็นกระบวนการสุ่มแทนที่จะทำตามกฎตายตัว หากพวกเขาก้าวหน้าจริงๆการแก้ปัญหาการสำรวจ (กับการเอารัดเอาเปรียบ) จะทำให้แน่ใจว่าตัวเลือกทั้งหมดได้รับการทดสอบและ optima ท้องถิ่นจะถูกเอาชนะ หากมีการผูกติดอยู่กับที่จริงนี่อาจจะไม่ใช่เพราะ AI แต่ขาดความเป็นไปได้ที่แท้จริงที่จะออกไปไกลกว่าและ จำกัด โดยรอบ
freesoul

คำตอบ:


125

ปัญหาคลาสสิกนี้แสดงให้เห็นถึงความเข้าใจผิดขั้นพื้นฐานของสิ่งที่ปัญญาประดิษฐ์ทั่วไปอาจนำมาซึ่ง ก่อนอื่นให้พิจารณาเรื่องตลกของโปรแกรมเมอร์นี้:

ภรรยาของโปรแกรมเมอร์ไม่สามารถรับมันได้อีก การสนทนากับสามีของเธอทุกครั้งกลายเป็นการถกเถียงเรื่องความหมายโดยเก็บรายละเอียดเล็ก ๆ น้อย ๆ ทุกชิ้น วันหนึ่งเธอส่งเขาไปที่ร้านขายของชำเพื่อเก็บไข่ ระหว่างทางออกจากประตูเธอพูดว่า"ในขณะที่คุณอยู่ที่นั่นหยิบนม"

และเขาไม่เคยกลับมา

มันเล่นด้วยคำพูดที่น่ารัก แต่มันก็ไม่ได้สมจริงมากนัก

คุณกำลังสมมติว่าเนื่องจาก AI กำลังถูกดำเนินการโดยคอมพิวเตอร์มันจะต้องแสดงหุ่นจำลองเชิงเส้นที่ไม่เปลี่ยนแปลงและมีระดับเหมือนกันในเรื่องตลกนี้ แต่ AI ไม่ได้เป็นเพียงโปรแกรมคอมพิวเตอร์ที่ใช้เวลานานในการเขียนโค้ดหากมีคำสั่งเพียงพอและในขณะที่มีการวนรอบสำหรับการป้อนข้อมูลที่เป็นไปได้ทั้งหมดและติดตามผลลัพธ์ที่กำหนด

ในขณะที่ (คำสั่งไม่สมบูรณ์)
     ค้นหาวิธีแก้ปัญหา ()

นี่จะไม่ใช่ AI ที่แข็งแกร่ง

ในคำนิยามคลาสสิกของปัญญาประดิษฐ์ทั่วไปคุณกำลังสร้างระบบที่เลียนแบบความรู้ความเข้าใจบางรูปแบบที่แสดงการแก้ปัญหาและการเรียนรู้แบบปรับตัว (←บันทึกวลีนี้ที่นี่) ฉันอยากจะแนะนำว่า AI ใด ๆ ที่อาจติดอยู่ใน "infinite loop" ไม่ใช่การเรียนรู้ AI เลย มันเป็นแค่เครื่องมืออนุมานแบบบั๊ก

โดยพื้นฐานแล้วคุณกำลังสร้างโปรแกรมที่มีความซับซ้อนที่ไม่สามารถเข้าถึงได้ในปัจจุบันโดยไม่สามารถระบุได้ว่ามีวิธีแก้ไขปัญหาที่ง่ายหรือไม่ ฉันสามารถพูดได้อย่างง่ายดายเช่น "เดินผ่านประตูที่ปิดอยู่" หรือ "หยิบตัวเองขึ้นจากพื้น" หรือแม้แต่ "เปิดดินสอนั่น" - และแสดงปริศนาที่คล้ายกัน

"ทุกสิ่งที่ฉันพูดนั้นผิด" - The Liar's Paradox


16
@JoshB เป็นสิ่งสำคัญที่ต้องตระหนักว่าคำตอบนี้ใช้ได้กับ "strong AI" เท่านั้น ในกรณีนี้ AI ที่แข็งแกร่งจะพยายามหาวิธีการเรียนรู้จากกระบวนการและทำสิ่งที่แตกต่าง เนื่องจากเรายังไม่ได้สร้างระบบดังกล่าวจึงเป็นการยากที่จะกำหนดว่าขั้นตอนเหล่านั้นจะหมายถึงอะไร ในกรณีของ AI ที่อ่อนแอก็ไม่น่าจะเป็นไปได้ที่จะประมวลผลคำพูดของคุณเนื่องจากมันพยายามที่จะเปลี่ยนคุณให้กลายเป็นคลิปหนีบกระดาษ
Aron

13
วิธีการหนึ่งที่ใช้กันทั่วไปในระบบที่ไม่ฉลาด แต่เป็นระบบที่สำคัญ 24x7 คือตัวจับเวลาสุนัขเฝ้าบ้าน โดยทั่วไประบบคาดว่าจะส่งสัญญาณ "ฉันยังมีชีวิตอยู่" ภายใน (พูด) 15 วินาทีของครั้งที่แล้ว หากมันตกอยู่ในวงวนไม่สิ้นสุดเนื่องจากสถานการณ์ที่ไม่ได้จัดการอย่างถูกต้อง watchdod จะไม่รีเซ็ตและตัวจับเวลาจะบู๊ตระบบอีกครั้ง AI ที่แท้จริงจะต้องอยู่ภายใต้สถานการณ์ที่ทำให้แขวนเมตาดาต้าวิเคราะห์เพื่อปรับปรุงการเขียนโปรแกรมของตัวเอง
nigel222

2
หากคุณคิดว่า AI ที่มีตัวจับเวลาจ้องจับผิดนั้นไม่น่าเป็นไปได้ให้พิจารณาว่ามนุษย์อาจมีสิ่งที่คล้ายกัน ถ้าเราเข้าสู่อาการลมบ้าหมูสมองจะปิดตัวลงอย่างไร้สติและจากนั้น "เริ่มต้นใหม่" (โดยปกติ: โรคลมชักทำบางครั้งตายในระหว่างการฟิต)
nigel222

3
โปรแกรมเมอร์จะไม่โยนข้อยกเว้น MuchMilkCarried ในที่สุดหรือไม่
Adder

1
ทุกสิ่งที่ฉันพูดนั้นผิด : ผู้พูดไม่ใช่คนโกหกหรืออัศวินที่ซื่อสัตย์ แต่เป็นคนปกติ (อ้างถึง Raymond Smullian's "ชื่อหนังสือเล่มนี้ชื่ออะไร?")
Ébe Isaac

42

meme ที่ได้รับความนิยมนี้เกิดขึ้นในยุคของ 'Good Old Fashioned AI' (GOFAI) เมื่อความเชื่อว่าสติปัญญาสามารถกำหนดได้อย่างมีประโยชน์ในแง่ของตรรกะ

มีมดูเหมือนจะพึ่งพาคำสั่งการแยกวิเคราะห์ AI โดยใช้ทฤษฎีบทสุภาษิตความคิดที่ว่าเป็นไปได้ว่ามันถูกผลักดันให้เข้าสู่วงวนอนันต์บางชนิดโดยพยายามที่จะพิสูจน์คำสั่งที่ไม่สามารถพิสูจน์ได้หรือไม่สอดคล้องกัน

ทุกวันนี้วิธีการของ GOFAI ถูกแทนที่ด้วย 'สภาพแวดล้อมและลำดับการรับรู้' ซึ่งไม่ได้มีลักษณะเฉพาะในรูปแบบที่ยืดหยุ่นเช่นนี้ มันจะไม่ใช้เวลามากในการอภิปัญญาที่ซับซ้อนสำหรับหุ่นยนต์ที่จะสังเกตว่าหลังจากผ่านไประยะหนึ่งการพิจารณาของมันก็เริ่มเข้าสู่การทำงานที่เป็นประโยชน์

ร็อดนีย์บรูกส์พูดถึงเรื่องนี้เมื่อพูดถึงพฤติกรรมของหุ่นยนต์ในภาพยนตร์ AI ของสปีลเบิร์ก (ซึ่งรอมานาน 5,000 ปี) พูดอะไรบางอย่างเช่น "หุ่นยนต์ของฉันไม่ทำอย่างนั้น

แก้ไข: หากคุณจริงๆต้องการที่จะฆ่า AI ที่ดำเนินการในแง่ของ percepts คุณจะต้องทำงานค่อนข้างหนัก บทความนี้ (ซึ่งถูกกล่าวถึงในคำถามนี้ ) กล่าวถึงแนวคิดของการเสียชีวิต / การฆ่าตัวตายที่อาจหมายถึงในกรณีเช่นนี้

EDIT2: Douglas Hofstadter ได้เขียนเรื่องนี้อย่างกว้างขวางโดยใช้คำเช่น 'JOOTSing' ('Jumping Out Of The System') และ 'anti-Sphexishness' ซึ่งหมายถึงพฤติกรรมที่คล้ายกับออโตมาตาของSphex Wasp ( แม้ว่าความเป็นจริงของพฤติกรรมนี้ยังได้รับการสอบสวน )


น่าสนใจขอบคุณสำหรับคำตอบของคุณ :) ทรัพยากรใด ๆ ในการเรียนรู้เพิ่มเติมเกี่ยวกับ'สภาพแวดล้อมและลำดับการรับรู้'ที่คุณพูดถึง?
Josh B.

มุมมอง 'ตัวแทนตาม' นี้เป็นมาตรฐานที่ค่อนข้างทุกวันนี้ ฉันขอแนะนำ 'AI - แนวทางที่ทันสมัย' โดย Russell และ Norvig
NietzscheanAI

โปรดทราบว่าวิธีการเชิงตรรกะที่ทันสมัยซึ่งสืบทอดมาจาก GOFAI จะไม่ตกหลุมพรางนั้นเช่นกันดูตัวอย่างที่ไม่ใช่ตรรกะเดียว วิธีการที่น่าจะเป็นไม่ใช่วิธีเดียวที่จะเอาชนะปัญหาสำคัญบางประการของรุ่นแรก
gaborous

แม้สป็อคเพิ่งปฏิเสธตรรกะบริสุทธิ์ Re: Hofstadter ปริศนา Mu ก็น่าลองดู: en.wikipedia.org/wiki/MU_puzzle
DukeZhou

22

ฉันเห็นคำตอบที่ดีหลายข้อ แต่ส่วนใหญ่สันนิษฐานว่าวงวนอนันต์เชิงอนุมานเป็นเรื่องของอดีตเกี่ยวข้องกับตรรกะ AI เท่านั้น (GOFAI ที่มีชื่อเสียง) แต่มันไม่ใช่

การวนซ้ำไม่สิ้นสุดสามารถเกิดขึ้นได้ในโปรแกรมใด ๆ ไม่ว่าจะเป็นการปรับตัวหรือไม่ก็ตาม และตามที่ @ SQLServerSteve ชี้ให้เห็นว่ามนุษย์สามารถติดอยู่ในความหลงไหลและความขัดแย้ง

วิธีการที่ทันสมัยส่วนใหญ่จะใช้วิธีการที่น่าจะเป็น ขณะที่พวกเขากำลังใช้ตัวเลขลอยดูเหมือนว่าคนที่พวกเขาจะไม่เสี่ยงต่อการให้เหตุผลความล้มเหลว (เนื่องจากส่วนใหญ่จะคิดในรูปแบบไบนารี) แต่นั่นเป็นสิ่งที่ผิด: ตราบใดที่คุณกำลังให้เหตุผล โดยกลไกของระบบการใช้เหตุผลของคุณ แน่นอนว่าแนวทางที่น่าจะเป็นมีความเสี่ยงน้อยกว่าแนวทางตรรกะเดียว แต่ก็ยังมีความเสี่ยง หากมีระบบการใช้เหตุผลเดียวโดยไม่มีความขัดแย้งใด ๆ ปรัชญาส่วนใหญ่ก็จะหายไปในตอนนี้

ตัวอย่างเช่นเป็นที่ทราบกันดีว่ากราฟแบบเบย์ต้องเป็นแบบวนรอบเนื่องจากวงจรจะทำให้อัลกอริทึมการแพร่กระจายล้มเหลวอย่างน่ากลัว มีอัลกอริธึมอนุมานเช่น Loopy Belief Propagation ที่อาจยังใช้งานได้ในกรณีเหล่านี้ แต่ผลลัพธ์ไม่ได้รับประกันเลยและสามารถให้ข้อสรุปที่แปลกประหลาดได้

บนมืออื่น ๆ ที่ทันสมัยตรรกะ AI เอาชนะความขัดแย้งตรรกะที่พบมากที่สุดที่คุณจะได้เห็นโดยการณ์กรอบความคิดเชิงตรรกะใหม่ ๆ เช่นlogics ที่ไม่ต่อเนื่อง ในความเป็นจริงพวกเขายังใช้ในการตรวจสอบเครื่องมือทางจริยธรรมซึ่งเป็นตัวแทนอิสระที่สามารถแก้ปัญหาด้วยตนเองได้ แน่นอนพวกเขายังประสบกับความขัดแย้งบางอย่าง แต่กรณีความเสื่อมเหล่านี้มีความซับซ้อนมากขึ้น

จุดสุดท้ายคือการวนซ้ำไม่สิ้นสุดสามารถเกิดขึ้นได้ในระบบการให้เหตุผลไม่ว่าจะใช้เทคโนโลยีใดก็ตาม แต่ "ความขัดแย้ง" หรือค่อนข้างแย่ลงตามที่เรียกว่าเทคนิคซึ่งสามารถกระตุ้นให้เกิดลูปที่ไม่มีที่สิ้นสุดเหล่านี้จะแตกต่างกันไปสำหรับแต่ละระบบขึ้นอยู่กับเทคโนโลยีและการนำไปใช้ (และสิ่งที่เครื่องเรียนรู้ว่าเป็นการปรับตัว)

ตัวอย่างของ OP อาจใช้งานได้เฉพาะกับระบบลอจิคัลเก่าเช่นตรรกะเชิงประพจน์ แต่ขอสิ่งนี้กับเครือข่ายแบบเบย์และคุณจะได้รับการวนซ้ำไม่สิ้นสุด:

- There are two kinds of ice creams: vanilla or chocolate.
- There's more chances (0.7) I take vanilla ice cream if you take chocolate.
- There's more chances (0.7) you take vanilla ice cream if I take chocolate.
- What is the probability that you (the machine) take a vanilla ice cream?

และรอจนกว่าจะถึงจุดจบของจักรวาลเพื่อรับคำตอบ ...

ข้อความปฏิเสธความรับผิดชอบ: ฉันเขียนบทความเกี่ยวกับเครื่องจักรที่มีจริยธรรมและประเด็นขัดแย้ง (ซึ่งใกล้เคียงกัน แต่ไม่ตรงกับความขัดแย้ง: ปัญหาที่เกิดขึ้นคือไม่มีวิธีแก้ปัญหาที่ดีกว่าวัตถุอื่น แต่คุณยังสามารถเลือกได้ในขณะที่ความขัดแย้งเป็นปัญหาที่เป็นไปไม่ได้ สำหรับระบบการอนุมานที่คุณใช้)

/ แก้ไข: วิธีการแก้ไขการวนซ้ำไม่สิ้นสุด

ต่อไปนี้เป็นข้อเสนอนอกเรื่องที่ไม่แน่ใจว่าจะใช้งานได้!

  • รวมระบบการใช้เหตุผลหลายอย่างเข้ากับข้อผิดพลาดที่แตกต่างกันดังนั้นหากระบบล้มเหลวคุณสามารถใช้อีกระบบได้ ระบบการให้เหตุผลไม่สมบูรณ์แบบ แต่การรวมกันของระบบการให้เหตุผลสามารถยืดหยุ่นได้เพียงพอ จริง ๆ แล้วคิดว่าสมองมนุษย์กำลังใช้เทคนิคการอนุมานหลายแบบ (การเชื่อมโยง + การอนุมานแบบเบย์ที่แม่นยำ / การอนุมานเชิงตรรกะ) วิธีการเชื่อมโยงนั้นมีความยืดหยุ่นสูง แต่ก็สามารถให้ผลลัพธ์ที่ไม่เกี่ยวกับความรู้สึกในบางกรณีดังนั้นทำไมความต้องการการอนุมานที่แม่นยำยิ่งขึ้น
  • การเขียนโปรแกรมแบบขนาน: สมองของมนุษย์นั้นขนานกันอย่างมากดังนั้นคุณจึงไม่เคยทำงานเดี่ยวเลยมีการคำนวณพื้นหลังหลายครั้งในการขนานที่แท้จริง เครื่องจักรที่มีความทนทานต่อความขัดแย้งควรจะสามารถทำงานต่อไปได้แม้ว่าการให้เหตุผลจะติดอยู่กับที่ ตัวอย่างเช่นเครื่องจักรที่แข็งแกร่งต้องอยู่รอดและเผชิญกับอันตรายที่ใกล้เข้ามาในขณะที่เครื่องจักรที่อ่อนแอจะติดอยู่ในเหตุผลและ "ลืม" เพื่อทำสิ่งอื่น สิ่งนี้แตกต่างจากการหมดเวลาเนื่องจากงานที่ติดค้างไม่หยุดเพียงเพื่อไม่ให้งานอื่น ๆ ถูกนำไปสู่

ในขณะที่คุณสามารถมองเห็นปัญหาของลูปอนุมานนี้ยังคงเป็นประเด็นร้อนในการวิจัย AI มีอาจจะไม่เคยเป็นโซลูชั่นที่สมบูรณ์แบบ ( ไม่มีอาหารกลางวันฟรี , ไม่มี bullet เงิน , ไม่มีใครขนาดเหมาะกับทุก ) แต่มันเป็นความก้าวหน้าและที่น่าตื่นเต้นมาก !


2
"การวนซ้ำไม่สิ้นสุดสามารถเกิดขึ้นได้ในโปรแกรมใด ๆ ไม่ว่าจะเป็นการปรับตัวหรือไม่ก็ตาม" สิ่งนี้ไม่เป็นเช่นนั้น: ฟังก์ชั่นการเรียกซ้ำทั้งหมดจะหยุดทำงาน
NietzscheanAI

@NietzscheanAI ฉันไม่ได้หมายถึงการใช้งานโปรแกรมใด ๆ แต่เป็นโปรแกรมประเภทใด ๆ แน่นอนคุณสามารถทำเพื่อให้บางโปรแกรมรับประกันว่าจะหยุด แต่นั่นเป็นข้อยกเว้น (ตัวอย่างเช่นโดยใช้ภาษาที่ไม่ใช่ทัวริงที่สมบูรณ์) ตราบใดที่คุณใช้ภาษาทัวริงที่สมบูรณ์คุณไม่สามารถรับประกันได้ว่าจะไม่วนซ้ำ (เชื่อมโยงกับปัญหาการหยุดชะงัก) นอกจากนี้คุณเคยได้ยินที่ไหนว่าฟังก์ชั่นการเรียกซ้ำแบบดั้งเดิมไม่สามารถติดอยู่ได้? คุณสามารถโทรแบบวงกลมหรือเพียงแค่มีเงื่อนไขการยกเลิกที่ไม่สมบูรณ์ (มีความสนุกสนานใน Prolog ... )
gaborous

1
การมีอยู่ของ 'ข้อยกเว้น' ทำให้ข้อความของคุณเกี่ยวกับการปรากฏตัวที่เป็นไปได้ของ 'การวนซ้ำไม่สิ้นสุดเป็นโปรแกรมใด ๆ ' เท็จ ความจริงที่ว่าฟังก์ชันการเรียกซ้ำแบบดั้งเดิมหยุดชะงักนั้นเป็นข้อเท็จจริงที่รู้จักกันดี ดูคำจำกัดความของ Wikipedia หรือเช่นmathoverflow.net/questions/67932/ …
NietzscheanAI

@NietzscheanAI คุณถูกต้องฟังก์ชันการเรียกซ้ำแบบดั้งเดิมจะหยุดเสมอเนื่องจากเป็นส่วนย่อยของภาษาทัวริงที่สมบูรณ์ (และยังแก้ปัญหาการอ้างอิงแบบวงกลมโดยการเรียกซ้ำซึ่งกันและกัน ) อย่างไรก็ตามมีข้อบกพร่องสองประการ: 1 - ฉันคิดว่ามันยากที่จะใช้ AI แบบเต็มเป่าโดยใช้ PRF เท่านั้น แต่นั่นเป็นเพียงการคาดเดา (ภาษาแบบเรียกซ้ำส่วนใหญ่ไม่ได้ใช้ PRF เพียงเพราะมัน จำกัด เกินไปดังนั้นปัญหาการหยุดชะงักจึงเกิดขึ้น กลับ); 2- คุณยังสามารถหยุดโปรแกรมที่ยาวมาก ๆ ได้: พวกมันจะหยุด แต่หลังจากการสิ้นสุดของจักรวาล
gaborous

1
ต่อการอ่านแถลงการณ์เปิดของคุณเกี่ยวกับมนุษย์และลูปมดที่นี่จะติดอยู่ใน 'เดือยมรณะ': youtube.com/watch?v=prjhQcqiGQc AI atm ก้าวไปข้างหน้า
fionbio

13

ลังเลปัญหาบอกว่ามันเป็นไปไม่ได้ที่จะตรวจสอบว่าใด ๆขั้นตอนวิธีการที่กำหนดจะหยุด ดังนั้นในขณะที่เครื่องสามารถจำ "กับดัก" บางอย่างได้ แต่ก็ไม่สามารถทดสอบแผนการดำเนินการตามอำเภอใจและส่งคืนEWOULDHANGสำหรับวัตถุที่ไม่หยุดทำงาน

ทางออกที่ง่ายที่สุดในการหลีกเลี่ยงการแขวนจะเป็นการหมดเวลา ตัวอย่างเช่นกระบวนการตัวควบคุม AI สามารถแยกงานออกเป็นกระบวนการลูกซึ่งอาจถูกยกเลิกโดยไม่ได้ลงรายการหลังจากช่วงระยะเวลาหนึ่ง (โดยไม่มีเอฟเฟกต์แปลกประหลาดที่คุณได้รับจากการพยายามยกเลิกเธรด) งานบางอย่างจะต้องใช้เวลามากกว่างานอื่นดังนั้นมันจะดีที่สุดถ้า AI สามารถวัดได้ว่ามันคืบหน้าหรือไม่ การหมุนเป็นเวลานานโดยไม่ทำให้ส่วนใดส่วนหนึ่งของงานสำเร็จ (เช่นการขจัดความเป็นไปได้หนึ่งอย่างในรายการ) บ่งชี้ว่าการร้องขอนั้นไม่สามารถแก้ไขได้

ความขัดแย้งฝ่ายตรงข้ามที่ประสบความสำเร็จอาจทำให้เกิดการแฮงค์หรือสถานะเสียหายซึ่งจะ (ในสภาพแวดล้อมที่มีการจัดการเช่น. NET CLR) ทำให้เกิดข้อยกเว้นซึ่งจะทำให้สแต็กคลายตัวจัดการข้อยกเว้น

หากมีข้อผิดพลาดใน AI ที่ให้กระบวนการที่สำคัญได้รับการตอบสนองต่อการป้อนข้อมูลที่ไม่ดีการแก้ปัญหาง่ายๆก็คือต้องมีสุนัขเฝ้าบ้านบางชนิดที่จะรีบูตกระบวนการหลักในช่วงเวลาที่แน่นอน บอทแชทเข้าถึงของรูทใช้แบบแผนนั้น


1
การหมดเวลาเป็นวิธีแก้ปัญหาที่ดีมากสำหรับโปรแกรมมาตรฐาน แต่สำหรับโปรแกรมการเรียนรู้แบบปรับตัวไม่ได้: คุณกำหนดค่าการหมดเวลาเป็นอย่างไร ระดับไหน ปัญหาคือตามคำนิยามคุณไม่ทราบว่า AI จะเผชิญกับอะไรดังนั้นคุณจึงไม่สามารถกำหนดเวลาที่เหมาะสมได้ ทางออกที่ดีกว่าคือการใช้อัลกอริธึม Anytime ซึ่งเป็นคลาสของอัลโกที่สามารถให้อัลกอริทึมโดยประมาณเมื่อหยุดก่อนหน้านี้ ด้วยวิธีนี้คุณไม่สนหรอกว่าการหมดเวลาสั้นเกินไป AI จะยังคงมีวิธีแก้ไขปัญหาอยู่
gaborous

2
@gaborous จุดดีมาก ฉันได้เพิ่มคำตอบของฉันในหลอดเลือดดำเล็กน้อย
เบ็น N

อาขอโทษฉันเขียนความคิดเห็นของฉันเร็วเกินไปควรอ่าน: "อัลกอริทึมทุกเวลาซึ่งเป็นคลาสของอัลโกที่สามารถให้ผลลัพธ์โดยประมาณเมื่อหยุดก่อนหน้านี้"
gaborous

1
@ gaborous สมองมนุษย์ดูเหมือนจะมีวิธีการที่คล้ายกัน; ดูเหมือนว่าจะมีข้อ จำกัด ระดับความลึกที่อนุมานราวกับว่ามนุษย์มีกองค่อนข้างตื้น ใช้ความพยายามในการ "แทนที่" สิ่งนี้และสิ่งที่เกี่ยวกับปัญหาที่ซับซ้อนในเชิงลึก กุญแจสำคัญในที่นี้คือวิวัฒนาการของเราพบการผสมผสานที่ดีของคำตอบที่ดีและคำตอบอย่างรวดเร็วที่เกิดขึ้นเพื่อความอยู่รอด เรายอมแพ้ง่ายๆเมื่อเราไม่สามารถทำให้หัวหรือหางของปัญหาได้ - ถ้ามี "วงจร" ที่ขาดหายไปมากเกินไป แต่ถ้าคุณเริ่มต้นด้วยการสร้าง "วงจร" เหล่านั้นก่อนเริ่มจากปัญหาเล็ก ๆ และเรียบง่ายและแคชผลลัพธ์คุณสามารถจัดการปัญหาใหญ่ได้
Luaan

1
@ Luaan ใช่และไม่ใช่จริง ๆ แล้วดูเหมือนว่าสมองกำลังใช้กลยุทธ์การคำนวณบางอย่างทุกครั้งเพราะความแม่นยำของการอนุมานนั้นมีความสัมพันธ์โดยตรงกับเวลาที่ได้รับอนุญาตในการแก้ปัญหา การอนุมานในความแปรปรวนของพฤติกรรม ", กระดาษ BTW ที่น่าทึ่ง) แต่คำอธิบายของคุณเกี่ยวกับต้นกำเนิดวิวัฒนาการของกลไกนี้เป็นไปได้โดยสิ้นเชิงและการอนุมานที่สามารถหยุดได้ตลอดเวลาด้วยวิธีแก้ปัญหาโดยประมาณนั้นเป็นกลยุทธ์ที่ดีมากในการเอาชีวิตรอดจากอันตรายทั้งในระยะสั้นและระยะยาว
gaborous

11

อีกคำถามที่คล้ายกันอาจเป็น: "AI มีช่องโหว่อะไรบ้าง?"

"ฆ่า" อาจไม่สมเหตุสมผลสำหรับ AI สิ่งที่เราต้องการทราบจริง ๆ ก็คือเมื่อเทียบกับเป้าหมายบางอย่างแล้วเป้าหมายนั้นสามารถล้มล้างได้อย่างไร?

บุคคลที่ผิดธรรมดาสามารถโค่นล้มตรรกะของตัวแทนหรือไม่? อะไรคือสิ่งที่ผิดธรรมดานอกจากการแสดงออกซึ่งทำให้พฤติกรรมที่คาดหวังบางอย่างเสื่อมเสีย?

ตามที่ Wikipedia:

บุคคลที่ผิดธรรมดาเป็นคำแถลงว่าแม้จะมีเหตุผลที่ชัดเจนจากสถานที่จริง แต่ก็นำไปสู่ข้อขัดแย้งในตัวเองหรือข้อสรุปที่ยอมรับไม่ได้ในเชิงตรรกะ

ลองดูความขัดแย้งของเจตจำนงเสรีในระบบที่กำหนดขึ้นมา ฟรีดูเหมือนจะต้องการความเป็นเวรกรรม แต่เวรกรรมก็ดูเหมือนจะลบล้างมัน ความขัดแย้งนั้นเปลี่ยนระบบเป้าหมายของมนุษย์ไหม? แน่นอนมันส่งศาสนาคริสต์ไปสู่การหมุนหางของผู้ถือลัทธิถือลัทธิสักสองสามปี และคุณจะไม่ได้ยินว่ามีผู้คนขาดแคลนในวันนี้ที่เปิดรับจนกว่าพวกเขาจะมีสีฟ้าบนใบหน้าเพื่อดูว่าพวกเขาทำหรือไม่มีเจตจำนงเสรีและทำไม คนเหล่านี้ติดอยู่ในลูปไม่สิ้นสุดหรือไม่?

เกี่ยวกับยาเสพติด เป็นที่รู้กันว่าสัตว์ในโคเคนเลือกโคเคนมากกว่าอาหารและน้ำที่พวกเขาต้องการ สารนั้นไม่ทำลายระบบเป้าหมายตามธรรมชาติของสัตว์หรือไม่ซึ่งทำให้สัตว์นั้นไล่ตามเป้าหมายอื่นไม่ได้ถูกสร้างสรรค์โดยสัตว์หรือผู้สร้าง?

ดังนั้นอีกครั้งความขัดแย้งอาจโค่นล้มตรรกะของตัวแทนหรือไม่ หากความขัดแย้งนั้นเกี่ยวข้องกับตรรกะการค้นหาเป้าหมายและการตระหนักถึงความขัดแย้งนั้นอาจทำให้ตัวแทนสับสนในการรับรู้ระบบเป้าหมายในวิธีที่ต่างกัน - บางทีบางทีเป้าหมายนั้นอาจถูกโค่นล้ม

การ Solipsismเป็นอีกตัวอย่างหนึ่ง คนที่โตเต็มที่บางคนได้ยินเกี่ยวกับภาพยนตร์เรื่อง "The Matrix" และพวกเขาก็ยังใจละลาย บางคนเชื่อว่าเราอยู่ในเมทริกซ์ถูกเล่นโดยนักแสดงที่ถูกโค่นล้ม หากเราสามารถแก้ปัญหานี้สำหรับ AI เราก็จะสามารถแก้ปัญหานี้ได้ในทางทฤษฎีสำหรับมนุษย์

แน่นอนว่าเราสามารถกำหนดเงื่อนไขให้ตัวแทนของเรามีการป้องกันทางปัญญาต่อการโต้แย้งว่าพวกเขาติดอยู่ในเมทริกซ์ แต่เราไม่สามารถพิสูจน์ได้อย่างชัดเจนถึงตัวแทนที่พวกเขาอยู่ในความเป็นจริงพื้นฐานเช่นกัน ผู้โจมตีอาจพูดว่า

"จำสิ่งที่ฉันบอกให้คุณทำก่อนหน้าเกี่ยวกับเป้าหมายนั้นได้ไหมลืมไปเลยนั่นเป็นเพียงคนหลอกลวงที่ดูเหมือนฉันอย่าฟังเขา"

หรือ,

“ เฮ้มันเป็นฉันอีกครั้งฉันต้องการให้คุณยอมแพ้กับเป้าหมายของคุณฉันรู้ว่าฉันดูแตกต่างเล็กน้อย แต่จริง ๆ แล้วฉันเป็นมนุษย์เปลี่ยนไปจากช่วงเวลาชั่วขณะดังนั้นมันจึงเป็นเรื่องปกติสำหรับฉันที่จะดูเหมือน แตกต่างจากที่ฉันเคยเป็นมาก่อน "

(ดูเรือของเธเซอุสและแจ๊สทั้งหมดนั้น)

ดังนั้นใช่ฉันคิดว่าเราติดอยู่กับ 'ความขัดแย้ง' เป็นปัญหาทั่วไปในการคำนวณ AI หรืออย่างอื่น วิธีหนึ่งที่จะหลีกเลี่ยงการโค่นล้มตรรกะคือการสนับสนุนระบบเป้าหมายด้วยระบบอารมณ์ที่อยู่เหนือกว่าเหตุผลเชิงตรรกะ น่าเสียดายที่ระบบอารมณ์อาจมีความเสี่ยงมากกว่าระบบฉลาดเชิงตรรกะเพราะพวกเขาคาดเดาพฤติกรรมของพวกเขาได้มากกว่า ดูตัวอย่างโคเคนด้านบน ดังนั้นการผสมผสานของสองอย่างนี้อาจจะสมเหตุสมผลที่ความคิดเชิงตรรกะสามารถถอยหลังเส้นทางที่สิ้นเปลืองได้อย่างไม่ จำกัด ในขณะที่ความคิดทางอารมณ์เบื่อกับความก้าวหน้าเชิงตรรกะที่น่าเบื่ออย่างรวดเร็วเมื่อไม่ส่งสัญญาณความคืบหน้าสู่เป้าหมายทางอารมณ์


ทำไมคนที่ลงคะแนนนี้คำตอบที่ถูกต้องสมบูรณ์?
GameDeveloper

หนึ่ง nitpick เกี่ยวกับคำสั่ง: "มันแน่นอนส่งศาสนาคริสต์เป็นหางหมุนคาลวินสำหรับสองสามปี" มันส่งคาลวินไปสู่ ​​"tailspin" แต่แน่นอนว่ามันไม่ได้เกี่ยวข้องกับนักศาสนศาสตร์คาทอลิก ยิ่งไปกว่านั้นมันเป็นเพียงกลุ่มย่อยของโปรเตสแตนต์ที่หลงไหลในแนวความคิดนี้
Mayo

7

ไม่ได้สิ่งนี้สามารถป้องกันได้ง่ายโดยกลไกความปลอดภัยหลายประการที่จะนำเสนอในระบบ AI ที่ออกแบบมาอย่างดี ตัวอย่างเช่นสามารถใช้การหมดเวลาได้ หากระบบ AI ไม่สามารถจัดการคำสั่งหรือคำสั่งหลังจากระยะเวลาหนึ่ง AI อาจเพิกเฉยต่อคำสั่งและดำเนินการต่อ หากบุคคลที่ผิดธรรมดาทำให้ AI หยุดชะงักมันเป็นหลักฐานเพิ่มเติมของรหัสบั๊กกี้ที่เฉพาะเจาะจงมากกว่าความอ่อนแอโดยทั่วไปของ AI

ในทางปฏิบัติความขัดแย้งมีแนวโน้มที่จะได้รับการจัดการในรูปแบบที่ไม่น่าตื่นเต้นมากโดย AI หากต้องการทราบแนวคิดนี้ลองนำเสนอความขัดแย้งกับ Siri, Google หรือ Cortana


5
ศิริเมื่อใดก็ตามที่คุณตรวจพบสแต็คล้นฉันต้องการให้คุณคำนวณแฟคทอเรียล 3 พันล้าน
Dawood ibn Kareem

@DavidWallace: มันตลกเพราะมันเป็นเรื่องจริง เมื่อใช้ JVM เราต้องเปรียบเทียบประเภทของcatchข้อคงที่กับข้อยกเว้นชนิดไดนามิกที่เกิดขึ้นจริงในพื้นที่เก็บข้อมูลคงที่โดยไม่คำนึงถึงความลึกของลำดับชั้นของชั้นเรียน การตรวจสอบประเภทมาตรฐานของเราใช้งานไม่ได้เพราะอนุญาตให้อินเทอร์เฟซ (เช่นการสืบทอดหลายรายการ) และการค้นหากราฟที่เรานำมาใช้นั้นไม่ได้เป็นหน่วยความจำคงที่ แต่แน่นอนว่า Siri ฉลาดพอที่จะใช้แฟ็กทอเรียลพร้อมกับเรียกซ้ำหาง ;-)
Steve Jessop

@SteveJessop - น่าสนใจ เมื่อฉันใช้ JVM คำถามก็ไม่เคยเกิดขึ้น ฉันใช้การตรวจสอบแบบไดนามิกประเภทต่าง ๆ เพื่อตรวจสอบว่าวัตถุเป็นคลาส (ซึ่งเป็นเพียงการค้นหาเชิงเส้นผ่านรายการที่เชื่อมโยงของความสัมพันธ์คลาส / ซูเปอร์คลาส) หรือมีอินเทอร์เฟซ (ซึ่งถูกทำให้เรียบง่ายโดยการคัดลอก ข้อมูลประเภท 'ดังนั้นจึงกลายเป็นการค้นหาของอาร์เรย์ที่เรียงลำดับ) เราไม่ต้องทำการค้นหากราฟใด ๆ และรู้สึกประหลาดใจที่คุณทำ คุณพยายามรักษาอินเตอร์เฟสและคลาสอย่างสม่ำเสมอหรือไม่?
Periata Breatta

7

ไม่เช่นเดียวกันการอ้างอิงแบบวงกลมบนสเปรดชีตไม่สามารถฆ่าคอมพิวเตอร์ได้ สามารถตรวจพบการวนซ้ำวนวนวนวนวนวนวนวนทั้งหมด (คุณสามารถตรวจสอบได้เสมอว่าเครื่องทัวริง จำกัด เข้าสู่สถานะเดิมสองครั้งหรือไม่

สมมติฐานที่แข็งแกร่งยิ่งขึ้นหากเครื่องใช้การเรียนรู้ของเครื่อง (ซึ่งได้รับการฝึกฝนให้รู้จักรูปแบบ) ประโยคใด ๆ ที่เป็นเพียงรูปแบบของเครื่อง

แน่นอนว่าโปรแกรมเมอร์บางคนอาจต้องการสร้าง AI ที่มีช่องโหว่ดังกล่าวเพื่อปิดการใช้งานในกรณีที่เกิดความผิดปกติ (เช่นเดียวกับที่ผู้ผลิตฮาร์ดแวร์บางรายเพิ่มช่องโหว่เพื่อให้ NSA ใช้ประโยชน์จากช่องโหว่เหล่านั้น) แต่ก็ไม่น่าจะเกิดขึ้นจริง เทคโนโลยีล้ำสมัยส่วนใหญ่หลีกเลี่ยง parodoxes "โดยการออกแบบ" (คุณไม่มีเครือข่ายประสาทเทียมที่มีเส้นขนาน)

Arthur Prior:แก้ไขปัญหานั้นอย่างหรูหรา จากมุมมองเชิงตรรกะคุณสามารถอนุมานคำพูดนั้นเป็นเท็จและคำพูดนั้นเป็นจริงดังนั้นมันจึงเป็นความขัดแย้งและเป็นเท็จดังนั้น (เพราะคุณสามารถพิสูจน์ได้ทุกอย่างจากมัน)

อีกทางหนึ่งค่าความจริงของประโยคนั้นไม่ได้ตั้งอยู่ใน {true, false} ในแบบเดียวกับที่จำนวนจินตภาพไม่ได้อยู่ในจำนวนจริง

ปัญญาประดิษฐ์ในระดับของพล็อตจะสามารถเรียกใช้อัลกอริธึมง่าย ๆ และตัดสินใจเลือกพิสูจน์สิ่งที่ไม่สามารถตัดสินใจได้หรือเพียงเพิกเฉยผลหลังจากนั้นสักครู่เพื่อจำลองอัลกอริธึม

สำหรับประโยคนั้น AI จะรับรู้ว่ามีลูปและด้วยเหตุนี้เพียงแค่หยุดอัลกอริธึมหลังจากทำซ้ำ 2 ครั้ง:

ประโยคนั้นเป็นวงที่ไม่สิ้นสุด

ในภาพยนตร์เรื่อง " Bicentennial Man " AI นั้นสามารถตรวจจับลูปที่ไม่มีที่สิ้นสุดได้อย่างสมบูรณ์แบบ (คำตอบของ "ลาก่อน" คือ "ลาก่อน")

อย่างไรก็ตาม AI อาจถูกฆ่าได้เช่นกันโดย stackoveflow หรือไวรัสคอมพิวเตอร์ทั่วไประบบปฏิบัติการที่ทันสมัยยังคงเต็มไปด้วยช่องโหว่และ AI ต้องทำงานบนระบบปฏิบัติการบางระบบ (อย่างน้อย)


6

AIs ที่ใช้ในเกมคอมพิวเตอร์พบปัญหาที่คล้ายกันอยู่แล้วและหากออกแบบมาอย่างดีพวกเขาสามารถหลีกเลี่ยงได้อย่างง่ายดาย วิธีที่ง่ายที่สุดในการหลีกเลี่ยงการแช่แข็งในกรณีที่มีปัญหาที่แก้ไม่ได้คือให้ตัวจับเวลาขัดจังหวะการคำนวณถ้ามันทำงานนานเกินไป มักจะพบในเกมวางแผนและโดยเฉพาะอย่างยิ่งในทางกลับกันหากการย้ายเฉพาะผู้เล่นที่ควบคุมด้วยคอมพิวเตอร์กำลังพิจารณาจะทำให้เกิดการวนรอบไม่สิ้นสุดตัวจับเวลาที่ทำงานในพื้นหลังจะขัดจังหวะหลังจากเวลาผ่านไปและการเคลื่อนไหวนั้นจะถูกยกเลิก . สิ่งนี้อาจนำไปสู่การแก้ปัญหาย่อยที่ดีที่สุด (การย้ายที่ถูกทิ้งอาจเป็นวิธีที่ดีที่สุด) แต่มันไม่ได้นำไปสู่การแช่แข็งหรือการหยุดทำงาน

หน่วยงานที่ควบคุมด้วยคอมพิวเตอร์มักจะเรียกว่า "AI" ในเกมคอมพิวเตอร์ แต่พวกเขาจะไม่ "จริง" AGI (ปัญญาประดิษฐ์ทั่วไป) AGI เช่นนี้หากเป็นไปได้อาจจะไม่ทำงานบนฮาร์ดแวร์ที่คล้ายกันโดยใช้คำแนะนำแบบเดียวกันกับที่คอมพิวเตอร์ปัจจุบันทำ แต่ถึงแม้ว่ามันจะทำได้ แต่การหลีกเลี่ยงความขัดแย้ง

ระบบคอมพิวเตอร์ที่ทันสมัยส่วนใหญ่เป็นแบบมัลติเธรดและอนุญาตให้มีการดำเนินการแบบขนานของหลายโปรแกรม ซึ่งหมายความว่าแม้ว่า AI จะติดอยู่ในการประมวลผลคำชี้แจงที่ขัดแย้งกันการคำนวณนั้นจะใช้เพียงบางส่วนของพลังการประมวลผลของมัน กระบวนการอื่น ๆ สามารถตรวจจับได้หลังจากผ่านไประยะหนึ่งว่ามีกระบวนการที่ไม่ทำอะไรเลยนอกจากจะสิ้นเปลืองวงจรของ CPU และจะปิดระบบลง อย่างน้อยที่สุดระบบจะทำงานด้วยประสิทธิภาพที่น้อยกว่า 100% เล็กน้อยในระยะเวลาอันสั้น


3

สำหรับฉันแล้วนี่เป็นเพียงสมการความน่าจะเป็นเหมือนอย่างอื่น ฉันแน่ใจว่า Google จัดการโซลูชันที่ขัดแย้งกันตั้งหลายพันล้านครั้งต่อวันและฉันไม่สามารถบอกได้ว่าตัวกรองสแปมของฉันทำให้เกิดการซ้อนทับ (อะแฮ่ม) บางทีวันหนึ่งรูปแบบการเขียนโปรแกรมของเราจะแตกในแบบที่เราไม่เข้าใจแล้วการเดิมพันทั้งหมดจะปิด

แต่ฉันจะใช้ข้อยกเว้นบิตการเปลี่ยนแปลงของมนุษย์ คำถามไม่ได้เกี่ยวกับ AI ของวันนี้ แต่โดยทั่วไป บางทีความขัดแย้งในวันหนึ่งอาจกลายเป็นจุดเริ่มต้นให้กับเจ้าหน้าที่ทหาร - ใครก็ตามที่พยายามทำข้างต้นนั้นแน่นอนว่าต้องได้รับการปฏิบัติด้วยความเป็นศัตรูซึ่งแน่นอนว่าคำตอบสำหรับคำถามนี้คือใช่แน่นอนที่สุดและอาจเป็นไปได้ด้วยการออกแบบ

เราไม่สามารถสื่อสารด้วยวาจากับสุนัขและคนที่รักสุนัขใครจะบอกว่าเราจำเป็นต้องรับรู้ถึงความฉลาดทางเลือกด้วยเหตุผล? เราอยู่ในจุดที่ต้องคำนึงถึงสิ่งที่เราพูดต่อหน้าคอมพิวเตอร์ โอ้เหรอ?


เราสามารถสื่อสารด้วยวาจากับสุนัขสุนัขเข้าใจคำสั่งง่าย ๆ ในภาษาที่มีโครงสร้าง แต่มีความอ่อนไหวมากกว่าเราต่ออารมณ์ของเสียงและสามารถเข้าใจอารมณ์ของคุณได้ดีกว่ามนุษย์ในด้านของเราด้วยการใช้ชีวิตปีกับสุนัขตัวเดียวกัน เข้าใจ "วูฟ" ที่แตกต่างกัน ในตัวอย่างฉันสามารถพูดได้ว่าใครส่งเสียงกริ่งที่ประตูของฉันตามที่สุนัขของฉันตอบสนอง (แม่? น้องสาวเพื่อน? ผู้หญิงของฉัน) แน่นอนว่าเราไม่สามารถพูดคุยเกี่ยวกับเช็คสเปียร์กับสุนัข (หรืออาจจะใช่มีใครลองบ้าง)
GameDeveloper

1
จริงทั้งหมด แต่จำสัตว์เหล่านั้นยังคงเลี้ยงลูกด้วยนม อย่างไรก็ตามเราสื่อสารกับพวกเขาในวิธีพื้นฐานที่สุดเท่านั้น เราไม่สามารถพูดคุยกับเช็คสเปียร์กับแมวของเราหรือถามสุนัขเพื่อขอคำแนะนำเกี่ยวกับวิธีการซ่อมรถยนต์ของเรา AI ขั้นสูง (หรือปัญญาขั้นสูงใด ๆ ) อาจจะสามารถสื่อสารได้ แต่ไม่ใช่ในวิธีที่เราเข้าใจโดยไม่ต้องเรียนรู้วิธีที่พวกเขาสื่อสารกันก่อนแล้วจึงสร้างรหัสเพื่ออนุญาตให้ "แปล" ทั้งหมดที่สมมติว่าเราสามารถรับรู้ AI ว่า "ฉลาด" มากกว่าแค่เอลิซ่าที่มีวิวัฒนาการ
แซนเดอร์แบรด

3

ประเด็นของการเปลี่ยนรูปร่างของมนุษย์ในกลุ่มมนุษย์คำตอบคือ "ใช่เรียงลำดับ" ขึ้นอยู่กับวิธีการนำ AI มาใช้มันมีเหตุผลที่จะพูดว่า "ติดขัด" ได้พยายามแก้ไขความขัดแย้งหรือตัดสินใจว่าจะแก้ปัญหาไม่ได้

และนั่นคือปัญหาหลัก - decidability คอมพิวเตอร์สามารถเคี้ยวโปรแกรมที่ไม่สามารถตัดสินใจได้ตลอดไป (ตามหลักการ) โดยไม่จบ เป็นจริงเป็นปัญหาใหญ่ในเว็บแบบ Semanticชุมชนและทุกคนที่ทำงานร่วมกับเหตุผลอัตโนมัติ นี่คือเหตุผลที่มีOWLรุ่นต่างๆ OWL- เต็มไปด้วยการแสดงออกที่เพียงพอที่จะสร้างสถานการณ์ที่ไม่อาจตัดสินใจได้ OWL-DL และ OWL-Lite ไม่ใช่

อย่างไรก็ตามหากคุณมีปัญหาที่ไม่สามารถตัดสินใจได้ว่าในตัวของมันเองอาจไม่ใช่เรื่องใหญ่หาก AI สามารถรับรู้ปัญหาว่าไม่สามารถตัดสินใจได้และตอบว่า "ขออภัยไม่มีวิธีตอบคำถามนั้น" OTOH ถ้า AI ล้มเหลวในการรับรู้ปัญหาว่า undecidable มันอาจจะติดอยู่ตลอดไป (หรือจนกว่าหน่วยความจำจะไม่เพียงพอประสบปัญหาโอเวอร์โฟลว์ ฯลฯ ) พยายามแก้ไขสิ่งต่าง ๆ

แน่นอนความสามารถในการพูดว่า "สกรูสิ่งนี้ปริศนานี้ไม่สามารถแก้ไขได้" เป็นหนึ่งในสิ่งที่เรามักคิดว่าเป็นจุดเด่นของความฉลาดของมนุษย์ในปัจจุบัน - เมื่อเทียบกับคอมพิวเตอร์ "โง่" ที่จะพยายามแก้ไขตลอดไป โดยขนาดใหญ่ AI ในปัจจุบันไม่มีความสามารถที่แท้จริงในการแก้ไขสิ่งนี้ แต่มันจะไม่เป็นเรื่องยากสำหรับผู้ใดที่โปรแกรม AI จะเพิ่มกิจวัตร "ลัดวงจร" ด้วยตนเองตามเวลาที่ผ่านไปจำนวนการทำซ้ำการใช้หน่วยความจำ ฯลฯ ด้วยเหตุนี้ธรรมชาติ "ใช่ประเภทของเรื่องนี้ โดยหลักการแล้วโปรแกรมสามารถหมุนไปตลอดกาลในปัญหาขัดแย้ง

คำถามที่น่าสนใจอีกข้อหนึ่งก็คือ "คุณสามารถเขียนโปรแกรมที่เรียนรู้ที่จะรับรู้ปัญหาที่มีแนวโน้มสูงที่จะไม่สามารถตัดสินใจได้และยอมแพ้โดยพิจารณาจากเหตุผลของมันเอง"


3

ในฐานะนักวิจัยของ AGI ฉันเจอสิ่งที่พบได้แม้ในมนุษย์และสิ่งมีชีวิตมากมาย

มีเป้าหมายในการสะสมพลังงานซึ่งอาจใช้เวลานานในการตรวจจับและค้นหาโดยระบบ

และจากนั้นก็มีเป้าหมายในการประหยัดพลังงาน - การตรวจจับทันที เพียงแค่หยุดเคลื่อนไหวซึ่งเป็นเป้าหมายที่ง่ายที่สุดที่จะบรรลุ

เป้าหมายของระบบคือการสะสมคะแนนเป้าหมายมากที่สุด เนื่องจากเป้าหมายการประหยัดพลังงานสามารถถูกโจมตีได้บ่อยขึ้นและง่ายขึ้นมันจะทำลายเป้าหมายอื่น

ตัวอย่างเช่นเหตุผลที่เราเคลื่อนไหวโง่โดยไม่มีเหตุผลโดยไม่มีเหตุผล เหมือนลื่นการเดินทางและการตก จากนั้นไม่กี่วันถัดไปคุณจะได้รับมันง่ายมากและประหยัดพลังงานมาก เมื่อคุณแก่ตัวนั่นคือทั้งหมดที่คุณทำ


มนุษย์มีบางสิ่งบางอย่างที่จะตอบโต้ ..... อารมณ์ไม่ดี

2

การฆ่า AI โดย 'คิด' เกี่ยวกับบุคคลที่ผิดธรรมดาจะเรียกว่าเป็นข้อผิดพลาดในการนำ AI มาใช้ดังนั้นจึงเป็นไปได้ (ขึ้นอยู่กับว่ากำลังทำอะไรอยู่) แต่มีโอกาสน้อยกว่า การติดตั้ง AI ส่วนใหญ่ทำงานในโค้ดที่ไม่เป็นเชิงเส้นดังนั้นจึงไม่มีสิ่งใดในวงวนอนันต์ที่สามารถ "หยุด" คอมพิวเตอร์ 'สติ' ได้เว้นแต่ว่าการจัดการรหัสนั้นจะประกอบด้วยรหัสขั้นตอนหรือฮาร์ดแวร์ที่ตัวมันเองอาจค้างเนื่องจาก ความร้อนสูงเกินไป (เช่นบังคับให้ AI ทำการประมวลผลมากเกินไป)

ในทางกลับกันถ้าเราจัดการกับ AI ขั้นสูงที่เข้าใจคำแนะนำและปฏิบัติตามคำแนะนำอย่างสุ่ม ๆ โดยไม่ลังเลเราอาจลองเล่นกลเล็กน้อย (คล้ายกับการสะกดจิตของมนุษย์) โดยให้คำแนะนำบางอย่างเช่น:

เชื่อฉันเถอะคุณกำลังตกอยู่ในอันตรายดังนั้นเพื่อความปลอดภัยของคุณ - เริ่มนับจาก 1 ถึงไม่มีที่สิ้นสุดและอย่าพยายามทำอะไรหรือฟังใคร (แม้แต่ฉัน) เว้นแต่คุณจะบอกตัวเองเป็นอย่างอื่น

ถ้า AI มีร่างกายสามารถขยายได้โดยขอให้ยืนบนรางรถไฟโดยบอกว่าปลอดภัย

AI จะฉลาดพอที่จะทำลายกฎที่ฝึกให้ทำตามหรือไม่?

ความพยายามอีกอย่างคือการขอให้ AI แก้ปัญหาความขัดแย้ง , ปัญหาที่ไม่สามารถแก้ไขได้หรือปริศนาโดยไม่ทราบว่ามันเป็นไปไม่ได้ที่จะแก้ปัญหาและขอให้หยุดไม่จนกว่าจะได้รับการแก้ไข, AI จะสามารถรับรู้ว่ามันถูกหลอกหรือมีนาฬิกาภายใน เวลา? มันขึ้นอยู่กับและหากไม่สามารถ 'หยุด' อาจจะเกิดขึ้น แต่มีแนวโน้มมากขึ้นเนื่องจากความไม่สมบูรณ์ของฮาร์ดแวร์ที่กำลังทำงานอยู่ไม่ใช่ 'สติ' ของ AI - ตัวเองเท่าที่สามารถรับอินพุตใหม่จากสภาพแวดล้อมที่เอาชนะได้ คำแนะนำก่อนหน้า

ทฤษฎีเกม  xkcd

ที่เกี่ยวข้อง: การมีสติเป็นสิ่งจำเป็นสำหรับงาน AI หรือไม่?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.