ตามที่โต้แย้งโดยSelvaraju และคณะ การวิวัฒนาการของ AI มีสามขั้นตอนซึ่งการตีความทั้งหมดนั้นมีประโยชน์
ในระยะแรกของการพัฒนา AI เมื่อ AI อ่อนแอกว่าประสิทธิภาพของมนุษย์ความโปร่งใสสามารถช่วยให้เราสร้างแบบจำลองที่ดีขึ้นได้ มันสามารถให้ความเข้าใจที่ดีขึ้นเกี่ยวกับวิธีการทำงานของแบบจำลองและช่วยให้เราตอบคำถามสำคัญหลายข้อ ตัวอย่างเช่นสาเหตุที่รูปแบบการทำงานในบางกรณีและไม่ได้อยู่ในที่อื่นทำไมตัวอย่างบางอย่างสร้างความสับสนให้แบบจำลองมากกว่าคนอื่นทำไมรูปแบบประเภทเหล่านี้ทำงานและคนอื่น ๆ ไม่ได้ ฯลฯ
เมื่อ AI ใกล้เคียงกับประสิทธิภาพของมนุษย์และโมเดล ML กำลังเริ่มนำไปใช้ในหลายอุตสาหกรรมมันสามารถช่วยสร้างความไว้วางใจให้กับโมเดลเหล่านี้ได้ ฉันจะอธิบายรายละเอียดเล็กน้อยในภายหลังเพราะฉันคิดว่ามันเป็นเหตุผลที่สำคัญที่สุด
เมื่อ AI มีประสิทธิภาพสูงกว่ามนุษย์อย่างมีนัยสำคัญ (เช่น AI play Chess หรือ Go) มันสามารถช่วยในการสอนด้วยเครื่องจักร (เช่นการเรียนรู้จากเครื่องจักรเกี่ยวกับวิธีปรับปรุงประสิทธิภาพของมนุษย์ในงานเฉพาะนั้น)
ทำไมความไว้วางใจจึงสำคัญมาก
ก่อนอื่นให้ฉันยกตัวอย่างสองสามตัวอย่างของอุตสาหกรรมที่เชื่อมั่นเป็นสิ่งสำคัญที่สุด:
ในด้านการดูแลสุขภาพให้จินตนาการการวินิจฉัยโรคทาง Deep Neural Net สำหรับโรคเฉพาะ กล่องดำคลาสสิกNN จะเอาท์พุทไบนารี "ใช่" หรือ "ไม่" แม้ว่ามันจะมีประสิทธิภาพสูงกว่ามนุษย์ในการคาดการณ์ที่แท้จริงมันจะไร้ประโยชน์อย่างเต็มที่ในทางปฏิบัติ เกิดอะไรขึ้นถ้าหมอไม่เห็นด้วยกับการประเมินของแบบจำลองเขาไม่ควรรู้ว่าทำไมแบบจำลองนี้จึงทำนายผล บางทีมันอาจเห็นสิ่งที่แพทย์พลาด ยิ่งกว่านั้นถ้ามันทำการวินิจฉัยที่ผิดพลาด (เช่นคนป่วยถูกจัดว่ามีสุขภาพดีและไม่ได้รับการรักษาที่เหมาะสม) ใครจะเป็นผู้รับผิดชอบ: ผู้ใช้ของแบบจำลอง? โรงพยาบาล? บริษัท ที่ออกแบบโมเดล? กรอบกฎหมายที่ล้อมรอบนี้ค่อนข้างพร่ามัว
อีกตัวอย่างหนึ่งคือรถยนต์ที่ขับเคลื่อนด้วยตนเอง คำถามเดียวกันเกิดขึ้น: ถ้ารถชนซึ่งมีความผิด: คนขับ? ผู้ผลิตรถยนต์หรือไม่ บริษัท ที่ออกแบบ AI? ความรับผิดชอบทางกฎหมายเป็นกุญแจสำคัญสำหรับการพัฒนาของอุตสาหกรรมนี้
ในความเป็นจริงการขาดความไว้วางใจนี้มีหลายคนขัดขวางการยอมรับของ AI ในหลายสาขา (ที่มา: 1 , 2 , 3 ) ในขณะที่มีสมมติฐานที่รันอยู่ว่าผู้ใช้ระบบที่มีความโปร่งใสสามารถตีความได้หรืออธิบายได้จะมีความพร้อมในการทำความเข้าใจที่ดีขึ้นและเชื่อถือตัวแทนอัจฉริยะ (แหล่งที่มา: 1 , 2 , 3 )
ในแอปพลิเคชันในโลกแห่งความจริงหลาย ๆ คุณไม่สามารถพูดได้ว่า "ใช้งานได้ 94% ของเวลา" คุณอาจต้องให้เหตุผล ...
กฎระเบียบของรัฐบาล
รัฐบาลหลายประเทศกำลังดำเนินการอย่างช้าๆเพื่อควบคุม AI และความโปร่งใสน่าจะเป็นจุดศูนย์กลางของเรื่องทั้งหมดนี้
สิ่งแรกที่จะไปในทิศทางนี้คือสหภาพยุโรปซึ่งได้กำหนดแนวทางหลายประการที่ระบุว่า AI ควรมีความโปร่งใส (แหล่งที่มา: 1 , 2 , 3 ) ตัวอย่างเช่น GDPR ระบุว่าหากข้อมูลของบุคคลอยู่ภายใต้ระบบ "การตัดสินใจอัตโนมัติ" หรือ "การทำโปรไฟล์" เขาก็มีสิทธิ์เข้าถึง
"ข้อมูลที่มีความหมายเกี่ยวกับตรรกะที่เกี่ยวข้อง"
( มาตรา 15 EU GDPR )
ตอนนี้มันค่อนข้างพร่ามัว แต่มีจุดประสงค์ที่ชัดเจนว่าต้องการรูปแบบของการอธิบายที่ชัดเจนจากระบบเหล่านี้ แนวคิดทั่วไปที่สหภาพยุโรปกำลังพยายามผ่านคือ "ถ้าคุณมีระบบการตัดสินใจอัตโนมัติที่มีผลกระทบต่อชีวิตของผู้คนพวกเขาก็มีสิทธิ์ที่จะรู้ว่าทำไมการตัดสินใจบางอย่างเกิดขึ้น" ตัวอย่างเช่นธนาคารมี AI ที่ยอมรับและปฏิเสธการขอสินเชื่อจากนั้นผู้สมัครมีสิทธิที่จะรู้ว่าทำไมใบสมัครของพวกเขาถูกปฏิเสธ
เพื่อสรุป ...
AIs ที่อธิบายได้นั้นมีความจำเป็นเพราะ:
- มันทำให้เรามีความเข้าใจที่ดีขึ้นซึ่งช่วยให้เราปรับปรุงพวกเขา
- ในบางกรณีเราสามารถเรียนรู้จาก AI วิธีการตัดสินใจที่ดีขึ้นในบางงาน
- ช่วยให้ผู้ใช้เชื่อถือ AI ซึ่งนำไปสู่การยอมรับ AI ที่กว้างขึ้น
- AIs ที่นำไปใช้งานในอนาคต (ไม่ไกล) อาจจำเป็นต้องมี "ความโปร่งใส" มากกว่า