วัตถุประสงค์และการพิจารณาว่าจะใช้เลเยอร์ที่ซ่อนเมื่อใด


9

ติดตามคำถามนี้...

ฉันพยายามที่จะเรียนรู้วิธีการใช้และสร้างเครือข่ายประสาทเทียมสำหรับการวิจัยของฉันและประเด็นหนึ่งก็คือการหลบหนีฉัน ฉันรู้ว่าเลเยอร์ที่ซ่อนอยู่เป็นส่วนที่ค่อนข้างจำเป็นของสิ่งนี้ แต่ฉันติดอยู่ที่สองจุดซึ่งการอ้างอิงของฉันไม่ได้อธิบายถึงความพึงพอใจของฉัน:

  1. จุดประสงค์ที่แท้จริงของเลเยอร์ที่ซ่อนคืออะไร?
  2. มีวิธีกำหนดจำนวนเลเยอร์ที่ซ่อนไว้ให้ใช้อย่างไร

จากสิ่งที่ฉันรวบรวมมันคือ "จำลอง" ฟังก์ชั่นโลกแห่งความเป็นจริง แต่ถ้าเป็นไปได้ฉันต้องการคำอธิบายมากกว่านี้เล็กน้อย


แต่บางครั้งฉันก็พบว่าถ้าคุณเพิ่มเลเยอร์ที่ซ่อนอยู่ปัญหาการ overfitting มาจึงเป็นเรื่องยากมากที่จะบอกว่าเราสามารถใช้เลเยอร์ที่ซ่อนอยู่ได้จำนวนเท่าใด อาจจะเป็นวิธีการเข้าชมและทดลองใช้

คำตอบ:


9

เลเยอร์ที่ซ่อนอยู่ถูกใช้เพื่อเพิ่มความเป็นเครือข่าย ช่วยให้เครือข่ายสามารถแสดงโมเดลที่ซับซ้อนกว่าที่เป็นไปได้โดยไม่มีเลเยอร์ที่ซ่อนอยู่

การเลือกจำนวนของเลเยอร์ที่ซ่อนอยู่หรือโดยทั่วไปแล้วการเลือกสถาปัตยกรรมเครือข่ายของคุณรวมถึงจำนวนของหน่วยที่ซ่อนอยู่ในเลเยอร์ที่ซ่อนอยู่เช่นกันเป็นการตัดสินใจที่ควรพิจารณาจากข้อมูลการฝึกอบรมและการตรวจสอบข้าม คุณควรฝึกอบรมเครือข่ายด้วยจำนวนโหนดที่กำหนด (เพื่อเริ่มลองเลเยอร์ที่ซ่อนหนึ่งชั้นโดยมีหนึ่งหน่วยต่อหน่วยอินพุต) และทดสอบโมเดล

ดูลิงค์นี้สำหรับความช่วยเหลือเพิ่มเติม: http://www.faqs.org/faqs/ai-faq/neural-nets/part3/section-10.html


1
ลิงค์นั้นมีประโยชน์มาก
the_e

6

ฉันคิดว่าเรากำลังพูดถึงอวนประสาทแบบป้อนไปข้างหน้าอย่างง่ายเช่นตัวรับหลายชั้น

  1. เลเยอร์ที่ซ่อนอยู่มีความจำเป็นในการจับภาพการขึ้นต่อกันที่ไม่ใช่เชิงเส้นระหว่างคุณลักษณะของข้อมูลและตัวแปรที่คุณกำลังพยายามทำนาย หากคุณไม่ได้ใช้เลเยอร์ที่ซ่อนอยู่คุณอาจใช้การถดถอยเชิงเส้น (สำหรับการถดถอย) หรือการถดถอยโลจิสติก (สำหรับการจำแนก)
  2. โดยการลองเลเยอร์ที่ซ่อนอยู่จำนวนมากและประเมินว่ามันทำงานได้ดีเพียงใดเช่นในการตั้งค่าการตรวจสอบข้าม โดยทั่วไปเลเยอร์ที่ซ่อนอยู่หนึ่งชั้นจะเพียงพอและประสิทธิภาพการทำงานของ NN จะได้รับการปรับให้เหมาะสมโดยการปรับขนาดและการทำให้เป็นปกติ

โปรดทราบว่าด้วยเลเยอร์ที่ซ่อนอยู่มากกว่าสองเลเยอร์คุณอยู่ในดินแดนแห่งการเรียนรู้อย่างลึกล้ำและคุณอาจต้องใช้อัลกอริทึมที่กำหนดเองเพื่อฝึกฝนเน็ตของคุณ เหตุผลก็คือวานิลลา backpropagation ทนทุกข์ทรมานจากปัญหา "การไล่ระดับสีที่หายไป" ในมุ้งลึก: การไล่ระดับสีของฟังก์ชันข้อผิดพลาดจะตายลงที่ชั้นใกล้กับอินพุตและเลเยอร์เหล่านั้นแทบจะไม่ได้รับการฝึกฝน

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.