โครงข่ายประสาทเทียม (เช่นเครือข่ายประสาทเทียม) สามารถรับน้ำหนักเชิงลบได้หรือไม่?


13

เป็นไปได้ไหมที่จะมีน้ำหนักติดลบ (หลังจากยุคที่เพียงพอ) สำหรับเครือข่ายประสาทเทียมที่ลึกล้ำเมื่อเราใช้ ReLU สำหรับเลเยอร์การเปิดใช้งานทั้งหมด?


ฉันไม่เห็นเหตุผลใด ๆ ว่าทำไมพวกเขาจึงไม่สามารถลบได้ มีเหตุผล / การสังเกตที่คุณมีอยู่ในใจหรือไม่?
Sobi

ฉันแค่จินตนาการถึงกระบวนการของ SGD และคิดว่าน้ำหนักเชิงลบนั้นเป็นเรื่องปกติและเป็นไปได้หรือไม่
RockTheStar

เขาคิดอย่างนั้นเพราะ "น้ำหนัก" มีลักษณะคล้ายกับการเชื่อมโยงระหว่างเซลล์ประสาทดังนั้นเราจะมี -2 ประสาทไปสู่เซลล์ประสาทได้อย่างไร ฉันสะดุดที่นี่หลังจากค้นหาสิ่งเดียวกันบน google ... ฉันคิดว่ามันอาจเป็นไปได้อย่างไรก็ตามในที่สุดมันอาจหมายถึงการขาดหายไปของการซิงค์หรือลิงก์และ "hops" หายไปถึง b จากอีกด้านหนึ่งที่ลบออกจากแคลคูลัส แต่ฉันไม่แน่ใจจริง ๆ เพียงแค่คิด
ลอง

คำตอบ:


10

หน่วยเชิงเส้นที่ถูกแก้ไข (ReLUs) ทำให้เอาต์พุตของเซลล์ประสาทเป็นแบบไม่ติดลบเท่านั้น อย่างไรก็ตามพารามิเตอร์ของเครือข่ายสามารถและจะกลายเป็นค่าบวกหรือค่าลบขึ้นอยู่กับข้อมูลการฝึกอบรม

ต่อไปนี้เป็นเหตุผลสองประการที่ฉันสามารถนึกได้ในตอนนี้ว่าเหตุผล (พารามิเตอร์ใด ๆ ) จะเป็นค่าลบ:

  1. การทำให้เป็นมาตรฐานของพารามิเตอร์ (หรือที่รู้จักคือการลดน้ำหนัก); การแปรผันของค่าพารามิเตอร์ทำให้การคาดการณ์เป็นไปได้และหากพารามิเตอร์อยู่กึ่งกลางรอบศูนย์ (เช่นค่าเฉลี่ยของพวกเขาใกล้เคียงกับศูนย์) จากนั้นค่ามาตรฐาน (ซึ่งเป็นค่ามาตรฐานปกติ) ต่ำ2

  2. แม้ว่าการไล่ระดับสีของเอาต์พุตของเลเยอร์ด้วยความเคารพต่อพารามิเตอร์เลเยอร์ขึ้นอยู่กับอินพุตไปยังเลเยอร์ (ซึ่งมักจะเป็นบวกเสมอสมมติว่าเลเยอร์ก่อนหน้านี้ส่งผ่านเอาท์พุตผ่าน ReLU) อย่างไรก็ตามการไล่ระดับสีของข้อผิดพลาด จากเลเยอร์ใกล้กับเลเยอร์ผลลัพธ์สุดท้าย) อาจเป็นค่าบวกหรือลบทำให้เป็นไปได้ที่ SGD จะทำให้ค่าพารามิเตอร์บางค่าติดลบหลังจากทำตามขั้นตอนการไล่ระดับสีถัดไป โดยเฉพาะอย่างยิ่งให้ ,และแสดงถึงอินพุต, เอาต์พุตและพารามิเตอร์ของเลเยอร์ในเครือข่ายประสาท นอกจากนี้ให้เป็นข้อผิดพลาดสุดท้ายของเครือข่ายที่เกิดจากตัวอย่างการฝึกอบรม การไล่ระดับสีของข้อผิดพลาดเกี่ยวกับถูกคำนวณเป็นIOwEwEw=(k=1KEOk)Okw ; โปรดทราบว่า (ดูภาพด้านล่าง):Ok=O,k

ป้อนคำอธิบายรูปภาพที่นี่


1

ลองนึกภาพว่าคุณมีน้ำหนักที่เหมาะสมซึ่งไม่เป็นลบ

ตอนนี้กลับตัวแปรบาง-x_i เครือข่ายที่ดีที่สุดสำหรับการตั้งค่านี้คือน้ำหนักของกลับด้านดังนั้นน้ำหนักใหม่จะไม่เป็นบวกxi=xi{xi,y}


-3

นอกจากว่าคุณจะใช้ฟังก์ชั่นเปิดใช้งานอื่นสำหรับอินสแตนซ์ Leaky ReLU แก้ไขน้ำหนักของชั้นหลังจากชั้นแรกไม่เป็นลบโดยไม่คำนึงถึงจำนวนครั้งในการฝึกอบรม


1
ขอบคุณมาก! คุณสามารถอธิบาย detials อีกเล็กน้อยเกี่ยวกับวิธีที่ Leaky ReLU นำไปสู่น้ำหนักที่เป็นลบได้อย่างไร
RockTheStar

ดูเหมือนว่าการเรียกร้องไม่เป็นความจริง ฉันได้ทำการฝึกอบรมเกี่ยวกับเครือข่ายที่เปิดใช้งาน ReLU, เมทริกซ์ในการแปลงเลียนแบบ ("Ws") และออฟเซ็ต ("b's") ซึ่งฉันคิดว่าผู้ตัดสินในคำถามนี้ว่าน้ำหนักจะได้รับค่าลบ
พวกเขา
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.