ปัญญาประดิษฐ์มีความเสี่ยงต่อการแฮ็กหรือไม่
พลิกคำถามของคุณสักครู่แล้วคิดว่า:
อะไรทำให้ AI มีความเสี่ยงน้อยกว่าการแฮ็คเมื่อเทียบกับซอฟต์แวร์ประเภทอื่น
ในตอนท้ายของวันซอฟต์แวร์เป็นซอฟต์แวร์และมักจะมีข้อบกพร่องและปัญหาด้านความปลอดภัย AIs มีความเสี่ยงต่อปัญหาทั้งหมดที่ไม่ใช่ซอฟต์แวร์ AI นั้นมีความเสี่ยงเนื่องจาก AI ไม่ได้ให้ภูมิต้านทานบางอย่าง
สำหรับการแก้ไขดัดแปลงเฉพาะด้าน AI นั้น AI มีความเสี่ยงที่จะได้รับข้อมูลเท็จ ฟังก์ชั่นของ AI นั้นต่างจากโปรแกรมส่วนใหญ่ซึ่งจะถูกกำหนดโดยข้อมูลที่ใช้
สำหรับตัวอย่างของโลกแห่งความเป็นจริงเมื่อไม่กี่ปีที่ผ่านมา Microsoft ได้สร้าง AI chatbot ชื่อว่า Tay ผู้คนใน Twitter ใช้เวลาน้อยกว่า 24 ชั่วโมงในการสอนให้พูดว่า "เรากำลังจะสร้างกำแพงและเม็กซิโกจะจ่ายเงินให้"
(รูปภาพที่นำมาจากบทความ Verge ที่ลิงก์ด้านล่างนี้ฉันไม่ได้รับเครดิต)
และนั่นเป็นเพียงส่วนยอดของภูเขาน้ำแข็ง
บางบทความเกี่ยวกับ Tay:
ตอนนี้ลองนึกภาพว่าไม่ใช่บอทแชทลองนึกว่ามันเป็นชิ้นส่วนที่สำคัญของ AI จากอนาคตที่ AI รับผิดชอบสิ่งต่าง ๆ เช่นไม่ฆ่าผู้โดยสารรถยนต์ (เช่นรถยนต์ขับเอง) หรือไม่ฆ่าผู้ป่วย ตารางปฏิบัติการ (เช่นอุปกรณ์ช่วยเหลือทางการแพทย์บางประเภท)
จริงอยู่ที่ใคร ๆ ก็หวังว่า AIs จะปลอดภัยยิ่งขึ้นต่อภัยคุกคามดังกล่าว แต่หากว่ามีใครบางคนหาวิธีที่จะเลี้ยงฝูงชนข้อมูล AI ที่เป็นเท็จโดยไม่สังเกตเห็น (แฮกเกอร์ที่ดีที่สุดไม่ทิ้งร่องรอย) ความแตกต่างระหว่างชีวิตและความตาย
ใช้ตัวอย่างของรถที่ขับด้วยตนเองลองจินตนาการว่าข้อมูลเท็จสามารถทำให้รถคิดว่าจำเป็นต้องหยุดฉุกเฉินเมื่ออยู่บนมอเตอร์เวย์ หนึ่งในแอปพลิเคชันสำหรับ AI ทางการแพทย์คือการตัดสินใจแบบเอาชีวิตหรือความตายใน ER ลองจินตนาการว่าแฮ็กเกอร์สามารถส่งเครื่องชั่งให้กับการตัดสินใจที่ผิด
เราจะป้องกันได้อย่างไร
ท้ายที่สุดขนาดของความเสี่ยงขึ้นอยู่กับว่ามนุษย์พึ่งพิง AI ได้อย่างไร ตัวอย่างเช่นหากมนุษย์ใช้วิจารณญาณของ AI และไม่เคยถามพวกเขาพวกเขาจะเปิดใจรับการจัดการทุกประเภท อย่างไรก็ตามหากพวกเขาใช้การวิเคราะห์ของ AI เป็นเพียงส่วนหนึ่งของจิ๊กซอว์มันจะกลายเป็นเรื่องง่ายที่จะเห็นเมื่อ AI ไม่ถูกต้องไม่ว่าจะเป็นโดยไม่ได้ตั้งใจหรือเป็นอันตราย
ในกรณีของผู้มีอำนาจตัดสินใจด้านการแพทย์อย่าเพิ่งเชื่อว่า AI ทำแบบทดสอบทางกายภาพและรับความเห็นจากมนุษย์ หากแพทย์สองคนไม่เห็นด้วยกับ AI ให้ส่งการวินิจฉัยของ AI ออกไป
ในกรณีของรถยนต์ความเป็นไปได้อย่างหนึ่งคือมีระบบซ้ำซ้อนหลายระบบที่ต้อง 'โหวต' เกี่ยวกับสิ่งที่ต้องทำ หากรถมี AIs หลายตัวในระบบแยกต่างหากที่ต้องลงคะแนนว่าจะต้องทำอะไรแฮ็กเกอร์จะต้องเอา AI มากกว่าหนึ่งตัวเพื่อควบคุมหรือทำให้จนมุม ที่สำคัญหาก AIs ทำงานบนระบบที่แตกต่างกันการเอารัดเอาเปรียบแบบเดียวกันกับที่ใช้ในระบบหนึ่งไม่สามารถทำได้ในอีกระบบหนึ่งเพิ่มปริมาณงานของแฮ็กเกอร์ต่อไป