ความหมายของโครงข่ายประสาทเทียมเป็นกล่องดำ?


19

ฉันมักจะได้ยินคนพูดถึงเครือข่ายประสาทเป็นสิ่งที่เป็นกล่องดำที่คุณไม่เข้าใจว่ามันทำอะไรหรือสิ่งที่พวกเขาหมายถึง จริง ๆ แล้วฉันไม่เข้าใจว่าพวกเขาหมายถึงอะไร! หากคุณเข้าใจว่าการขยายพันธุ์กลับทำงานได้อย่างไรมันเป็นกล่องดำอย่างไร

พวกเขาหมายความว่าเราไม่เข้าใจว่าน้ำหนักที่คำนวณหรืออะไร


1
บางทีนี่อาจช่วยได้: colah.github.io/posts/2014-03-NN-Manifolds-Topologyบทความนี้พยายามที่จะเปิดเผยกลไกพื้นฐานของเครือข่ายประสาทจากมุมมองทอพอโลยีมันมีข้อมูลเชิงลึกที่ยอดเยี่ยมมากมายที่จะอธิบายประสิทธิภาพของ โครงข่ายประสาท
โซล

ฉันชอบที่จะเพิ่มจุดให้แจ็คเมื่อเราดู MLP ในมุมมองการเรียนรู้ของเครื่องเครือข่ายประสาทไม่ใช่กล่องดำอีกต่อไป ด้วยฟังก์ชั่น sigmoid อย่างง่ายเราจะสามารถตีความอินพุตและออกความสัมพันธ์กับสมการได้

คำตอบ:


38

โครงข่ายประสาทเทียมเป็นกล่องดำในแง่ที่ว่ามันสามารถประมาณฟังก์ชั่นใด ๆ ได้การศึกษาโครงสร้างของมันจะไม่ให้ข้อมูลเชิงลึกใด ๆ เกี่ยวกับโครงสร้างของฟังก์ชันที่ถูกประมาณ

ตัวอย่างการใช้งานเครือข่ายประสาทในธุรกิจธนาคารหนึ่งคือการจำแนกผู้กู้ใน "ผู้จ่ายที่ดี" และ "ผู้จ่ายที่ไม่ดี" คุณมีเมทริกซ์ของคุณลักษณะการป้อนข้อมูล (เพศอายุรายได้ ฯลฯ ) และเวกเตอร์ของผลลัพธ์ ("ผิดนัด", "ไม่ผิดนัด" ฯลฯ ) เมื่อคุณสร้างแบบจำลองนี้โดยใช้เครือข่ายประสาทคุณคิดว่ามีฟังก์ชั่นในแง่ที่เหมาะสมของฟังก์ชันทางคณิตศาสตร์ ฟังก์ชันนี้อาจซับซ้อนโดยพลการและอาจเปลี่ยนแปลงไปตามวิวัฒนาการของธุรกิจดังนั้นคุณจึงไม่สามารถหามาได้ด้วยมือCRf(C)=R

จากนั้นคุณใช้ Neural Network เพื่อสร้างการประมาณที่มีอัตราความผิดพลาดที่ยอมรับได้ในแอปพลิเคชันของคุณ วิธีนี้ใช้งานได้และความแม่นยำอาจเล็กมาก - คุณสามารถขยายเครือข่ายปรับพารามิเตอร์การฝึกอบรมและรับข้อมูลเพิ่มเติมจนกว่าความแม่นยำจะบรรลุเป้าหมายของคุณf

ปัญหากล่องดำคือ: การประมาณที่กำหนดโดยเครือข่ายประสาทจะไม่ทำให้คุณเข้าใจถึงรูปแบบของ f ไม่มีการเชื่อมโยงอย่างง่ายระหว่างตุ้มน้ำหนักและฟังก์ชันที่กำลังประมาณ แม้แต่การวิเคราะห์ว่าคุณลักษณะการป้อนข้อมูลใดที่ไม่เกี่ยวข้องเป็นปัญหาเปิด (ดูลิงค์นี้)

ยิ่งไปกว่านั้นจากมุมมองสถิติแบบดั้งเดิมเครือข่ายประสาทเทียมเป็นรูปแบบที่ไม่สามารถระบุตัวตนได้: เนื่องจากชุดข้อมูลและโครงสร้างเครือข่ายอาจมีเครือข่ายประสาทสองเครือข่ายที่มีน้ำหนักต่างกันและผลลัพธ์เดียวกัน ทำให้การวิเคราะห์ยากมาก

ในตัวอย่างของ "แบบจำลองที่ไม่ใช่กล่องดำ" หรือ "แบบจำลองที่ตีความได้" คุณมีสมการการถดถอยและต้นไม้ตัดสินใจ อันแรกให้แบบฟอร์มปิดโดยประมาณของ f ซึ่งความสำคัญของแต่ละองค์ประกอบนั้นชัดเจนส่วนที่สองคือคำอธิบายกราฟิกของอัตราส่วนความเสี่ยงสัมพัทธ์ \ odds


นี่เป็นคำตอบเก่า ๆ มันอาจจะมีประโยชน์สำหรับเครื่องมือบางตัวที่พัฒนาขึ้นใหม่: "การประมาณโดยเครือข่ายประสาทจะไม่ทำให้คุณเข้าใจถึงรูปแบบของ f" - ฉันบอกว่าตอนนี้ SHAP คำอธิบายแบบจำลองที่ยอดเยี่ยมแม้สำหรับโครงข่ายประสาท "แม้แต่การวิเคราะห์ว่าลักษณะการป้อนข้อมูลใดที่ไม่เกี่ยวข้องนั้นเป็นปัญหาแบบเปิด" - mothods มีความสำคัญต่อการเปลี่ยนแปลงเช่นเดียวกับ SHAP แต่ตอนนี้จัดการปัญหานี้ได้ค่อนข้างดี
Bobson Dugnutt

3

Google มีการตีพิมพ์ Inception-v3 มันเป็น Neural Network (NN) สำหรับอัลกอริทึมการจำแนกรูปภาพ (บอกแมวจากสุนัข)

ในกระดาษพวกเขาพูดคุยเกี่ยวกับสถานะปัจจุบันของการจำแนกภาพ

ตัวอย่างเช่น GoogleNet ใช้พารามิเตอร์เพียง 5 ล้านพารามิเตอร์เท่านั้นซึ่งเป็นการลดลง 12x เมื่อเทียบกับ AlexNet รุ่นก่อนซึ่งใช้พารามิเตอร์ 60 ล้านตัวนอกจากนี้ VGGNet ยังใช้พารามิเตอร์มากกว่า AlexNet ประมาณ 3 เท่า

และนั่นเป็นเหตุผลที่เราเรียก NN สำหรับกล่องดำ ถ้าฉันฝึกรูปแบบการจำแนกภาพ - ด้วยพารามิเตอร์ 10 ล้าน - และมอบให้คุณ คุณทำอะไรกับมันได้บ้าง

คุณสามารถเรียกใช้และจำแนกภาพได้อย่างแน่นอน มันจะใช้งานได้ดี! แต่คุณไม่สามารถตอบคำถามใด ๆ ต่อไปนี้โดยการศึกษาน้ำหนักอคติและโครงสร้างเครือข่ายทั้งหมด

  • เครือข่ายนี้สามารถบอกฮัสกี้จากพุดเดิ้ลได้หรือไม่?
  • วัตถุใดที่จำแนกได้ง่ายสำหรับอัลกอริธึมซึ่งเป็นเรื่องยาก?
  • ส่วนใดของสุนัขที่สำคัญที่สุดสำหรับการจำแนกสุนัขอย่างถูกต้อง หางหรือเท้า?
  • หากฉันถ่ายรูปสุนัขแมวหัวสุนัขจะเกิดอะไรขึ้นและทำไม?

คุณอาจจะสามารถตอบคำถามด้วยการเรียกใช้ NN และดูผลลัพธ์ (กล่องดำ) แต่คุณไม่มีการเปลี่ยนแปลงความเข้าใจว่าทำไมมันถึงมีพฤติกรรมเหมือนกับกรณีขอบ


ฉันคิดว่าคำถามอย่างน้อยหนึ่งคำถาม ('ส่วนใดของสุนัขที่สำคัญที่สุดสำหรับการจำแนกได้อย่างถูกต้องหางหรือเท้า?') ค่อนข้างตอบได้ถ้าคุณดูบทความและวิดีโอของ Matt Zeiler เกี่ยวกับ deconvolutitonal เครือข่าย
อเล็กซ์
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.