โครงข่ายประสาทเทียมมีความสามารถอธิบายได้เหมือนต้นไม้ตัดสินใจหรือไม่?


13

ในต้นไม้การตัดสินใจเราสามารถเข้าใจผลลัพธ์ของโครงสร้างต้นไม้และเรายังสามารถเห็นภาพว่าต้นไม้การตัดสินใจตัดสินใจได้อย่างไร ต้นไม้การตัดสินใจมีความสามารถอธิบายได้ (สามารถอธิบายผลลัพธ์ได้อย่างง่ายดาย)

เรามีคำอธิบายในโครงข่ายประสาทเทียมเหมือนกับต้นไม้ตัดสินใจหรือไม่?


1
กรอบรูปแบบไม่เชื่อเรื่องพระเจ้าที่ผ่านมาเป็นรูปแบบ LIME
เอ็ม

ในด้านการรับรู้วัตถุ / การจัดหมวดหมู่การใช้เครือข่ายประสาท, heatmaps เป็นที่นิยมที่จะเห็นภาพ / อธิบายการตัดสินใจเช่นในheatmapping.org มีการสอนและการสาธิตเชิงโต้ตอบ
Nikolas Rieble

คำตอบ:


9

ฉันไม่เห็นด้วยกับคำตอบก่อนหน้าและด้วยข้อเสนอแนะของคุณด้วยเหตุผลสองประการ:

1) ต้นไม้การตัดสินใจขึ้นอยู่กับการตัดสินใจเชิงตรรกะอย่างง่าย ๆ ซึ่งการรวมกันสามารถทำการตัดสินใจที่ซับซ้อนมากขึ้น แต่ถ้าข้อมูลของคุณมี 1,000 มิติและคุณลักษณะที่เรียนรู้นั้นไม่ใช่แบบเส้นตรงคุณจะได้รับแผนภูมิการตัดสินใจที่ใหญ่และหนักมากซึ่งคุณจะไม่สามารถอ่าน / ทำความเข้าใจได้เพียงแค่ดูที่โหนด

2) โครงข่ายประสาทมีความคล้ายคลึงกับในแง่ที่ว่าฟังก์ชั่นที่พวกเขาเรียนรู้นั้นสามารถเข้าใจได้ก็ต่อเมื่อมันมีขนาดเล็กมาก เมื่อโตขึ้นคุณต้องมีลูกเล่นอื่น ๆ เพื่อทำความเข้าใจ ตามที่ @SmallChess แนะนำคุณสามารถอ่านบทความนี้ที่เรียกว่าการแสดงผลและการทำความเข้าใจกับเครือข่าย Convolutionalซึ่งอธิบายถึงกรณีเฉพาะของเครือข่ายประสาทเทียมวิธีการที่คุณสามารถอ่านน้ำหนักเพื่อทำความเข้าใจสิ่งต่าง ๆ เช่น "มันตรวจจับรถในภาพนี้ ล้อไม่ใช่ส่วนประกอบที่เหลือ "

การสร้างภาพข้อมูลเหล่านี้ช่วยให้นักวิจัยจำนวนมากเข้าใจความอ่อนแอของสถาปัตยกรรมประสาทและช่วยปรับปรุงอัลกอริทึมการฝึกอบรม


:-) ฉันพบว่ากระดาษเข้าใจยากกว่าเครือข่าย convolutional ลึก มันเป็นบทความทางคณิตศาสตร์อย่างมาก
HelloWorld

1
ขออภัยฉันอ้างถึงบทความที่ไม่ถูกต้อง :-) ฉันเพิ่งเปลี่ยนไปบทความนี้เป็นกราฟิกมากกว่าความคิดในการย้อนกลับ Convnet นั้นไม่ยากมากถ้าคุณรู้ว่า Convnets ทำงานอย่างไร ในทำนองเดียวกันความฝันอันลึกซึ้งของ Google ใช้การเผยแพร่กลับเพื่อฉายผลลัพธ์เฉพาะในพื้นที่อินพุต
Robin

มีวิดีโอที่ Matt Zeiler ขยายความคิดเหล่านี้จำนวนมากเรียกว่าเครือข่าย Deconconvolution
Alex

7

ไม่เครือข่ายประสาทเทียมนั้นยากที่จะเข้าใจ คุณแลกเปลี่ยนพลังการทำนายสำหรับความซับซ้อนของแบบจำลอง แม้ว่าจะเป็นไปได้ที่จะเห็นน้ำหนักของ NN เป็นภาพกราฟิก แต่พวกเขาไม่ได้บอกคุณอย่างชัดเจนถึงการตัดสินใจ ขอให้โชคดีที่พยายามทำความเข้าใจกับเครือข่ายที่ลึกซึ้ง

มีแพ็คเกจ Python ยอดนิยม (และมีกระดาษ) ที่สามารถสร้างแบบจำลอง NN ภายในเครื่องด้วยแบบจำลองที่ง่ายกว่า คุณอาจต้องการดู

https://github.com/marcotcr/lime


1
ฮ่าฮ่า ฉันรู้ว่ามันรู้สึกอย่างไร กอด : D
Dawny33

0

https://arxiv.org/abs/1704.02685จัดเตรียมเครื่องมืออธิบายเฉพาะ NN ในท้องถิ่น: การยกระดับลึก มันทำงานได้โดยการเผยแพร่ความแตกต่างในการเปิดใช้งานระหว่างอินสแตนซ์ที่คุณต้องการอธิบายและอินสแตนซ์อ้างอิง การรับการอ้างอิงนั้นค่อนข้างยุ่งยาก แต่เครื่องมือนั้นสามารถตีความได้และปรับขนาดได้โดยรวม เราใช้ข้อมูลแบบตาราง

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.