ความสำคัญของโหนดอคติในเครือข่ายประสาทเทียม


19

ฉันอยากรู้ว่าโหนด bias สำคัญต่อประสิทธิภาพของเครือข่ายประสาทยุคใหม่อย่างไร ฉันสามารถเข้าใจได้อย่างง่ายดายว่ามันมีความสำคัญในเครือข่ายตื้นที่มีตัวแปรอินพุตเพียงไม่กี่ตัว อย่างไรก็ตามโครงข่ายประสาทที่ทันสมัยเช่นในการเรียนรู้เชิงลึกมักจะมีตัวแปรอินพุตจำนวนมากในการตัดสินใจว่ามีการกระตุ้นเซลล์ประสาทบางอย่างหรือไม่ จะลบพวกเขาออกจากเพียงแค่เช่น LeNet5 หรือ ImageNet มีผลกระทบที่แท้จริงหรือไม่?


@gung - ฉันเห็นคุณได้แก้ไขชื่อเพื่อใช้วลี "โหนดอคติ" ฉันอยากรู้ว่าทำไมคุณถึงชอบชื่อเรื่องนั้น? ฉันไม่เคยได้ยินเรื่องนี้มาก่อน ยิ่งกว่านั้นดูเหมือนว่าสับสนที่จะใช้คำว่า "node" เมื่ออคติไม่ได้เป็นโหนดแยกต่างหากในเครือข่าย
pir

2
หากคุณไม่ชอบคุณสามารถย้อนกลับแก้ไขด้วยคำขอโทษของฉัน ฉันคิดเสมอว่าชื่อนั้นค่อนข้างมาตรฐานแม้ว่าฉันจะไม่ได้เล่นเป็นปี ๆ แต่บางคนเรียกมันว่า "bias neuron" แทน FWIW "bias" ค่อนข้างคลุมเครือในสถิติ / ML โดยทั่วไปหมายถึงตัวประมาณที่การกระจายตัวตัวอย่างไม่ได้มีศูนย์กลางอยู่ที่ค่าที่แท้จริงของพารามิเตอร์หรือฟังก์ชันการทำนาย / ค่าที่ทำนายซึ่งแตกต่างจากฟังก์ชัน / ค่าเฉลี่ยที่แท้จริงเป็นต้นในขณะที่โหนดอคติเป็นส่วนหนึ่งของ ANN
gung - Reinstate Monica

2
มันเป็นโหนดจริง - อย่างน้อยก็ในแง่ที่ว่ามีอยู่ในเครือข่าย เช่นดูโหนดำในภาพนี้
gung - Reinstate Monica

โอเคมันสมเหตุสมผล - มันเป็นความจริงที่ "อคติ" นั้นค่อนข้างคลุมเครือ ขอบคุณสำหรับคำอธิบาย
pir

1
สำหรับเซลล์ประสาทหน่วยอคติดูเหมือนว่าจะเกิดการยิงแบบไม่เป็นธรรมชาติเกิดขึ้นในธรรมชาติ
user3927612

คำตอบ:


15

การลบอคติจะส่งผลกระทบต่อประสิทธิภาพอย่างแน่นอนและนี่คือสาเหตุ ...

แต่ละเซลล์ประสาทเป็นเหมือนการถดถอยโลจิสติกที่เรียบง่ายและคุณมี ) ค่าอินพุตถูกคูณด้วยน้ำหนักและอคติมีผลต่อระดับเริ่มต้นของการบีบในฟังก์ชัน sigmoid (tanh ฯลฯ ) ซึ่งส่งผลให้ต้องการไม่ใช่เชิงเส้นY=σ(Wx+)

ตัวอย่างเช่นสมมติว่าคุณต้องการเซลล์ประสาทไฟเมื่อทุกพิกเซลการป้อนข้อมูลที่เป็นสีดำx 0 หากไม่มีอคติไม่ว่าคุณจะมีน้ำหนักWเท่าไหร่ก็ตามสมการy = σ ( W x )เซลล์ประสาทจะยิงy 0.5เสมอY1x0WY=σ(Wx)Y0.5

ดังนั้นโดยการลบข้อกำหนดอคติคุณจะลดประสิทธิภาพเครือข่ายประสาทของคุณอย่างมีนัยสำคัญ


2
ขอบคุณที่ทำให้รู้สึกบางอย่าง ฉันเดาว่าแม้ว่าอวนที่ทันสมัยส่วนใหญ่จะใช้ ReLU เป็นฟังก์ชั่นการเปิดใช้งาน (ดูเช่นpapers.nips.cc/paper/4824-imagenet ) สิ่งนี้อาจยังเกี่ยวข้องถ้าเน็ตจำเป็นต้องยิงเมื่อพิกเซลอินพุตทั้งหมดเป็นสีดำ ReLU ถูกกำหนดเป็น f (x) = max (0, x)
pir

ตรง! เป็นกรณีเดียวกัน ...
Yannis Assael

4
Y1x0x0Y0.5

2
ในขณะที่ฉันเห็นด้วยกับทฤษฎีมันก็คุ้มค่าที่ชี้ให้เห็นว่าด้วยอวนขนาดใหญ่ที่ทันสมัย สิ่งนี้ยังขึ้นอยู่กับการสันนิษฐานว่าตาข่ายต้องการยิงอวน 1 - อวนส่วนใหญ่จะไม่สนใจเกี่ยวกับการส่งออกของเซลล์ประสาทเดียว - นี่คือส่วนหนึ่งว่าทำไมการดรอปเอาท์จึงเป็นที่นิยมสำหรับอวนธรรมดา
Max Gordon

2
@ MaxGordon ถูกต้อง คำตอบนี้ใช้ไม่ได้กับคำถามนี้ ลองลบอคติออกจากเครือข่ายขนาดใหญ่แล้วคุณจะเห็นว่ามันสร้างความแตกต่างน้อยมาก
Neil G

10

ฉันไม่เห็นด้วยกับคำตอบอื่น ๆ ในบริบทเฉพาะของคำถามของคุณ ใช่โหนดอคติมีความสำคัญในเครือข่ายขนาดเล็ก อย่างไรก็ตามในโมเดลขนาดใหญ่การลบอินพุตไบแอสสร้างความแตกต่างเพียงเล็กน้อยเนื่องจากแต่ละโหนดสามารถสร้างโหนดอคติออกจากการเปิดใช้งานเฉลี่ยของอินพุตทั้งหมดได้ซึ่งโดยกฎของจำนวนมากจะเป็นเรื่องปกติ ที่เลเยอร์แรกความสามารถสำหรับสิ่งนี้จะเกิดขึ้นขึ้นอยู่กับการกระจายสัญญาณเข้าของคุณ สำหรับ MNIST ตัวอย่างเช่นการเปิดใช้งานค่าเฉลี่ยของอินพุตนั้นค่อนข้างคงที่

บนเครือข่ายขนาดเล็กแน่นอนว่าคุณต้องการอินพุตแบบไบอัส แต่ในเครือข่ายขนาดใหญ่การลบออกก็แทบไม่ต่างอะไรเลย (แต่ทำไมคุณต้องลบออก)


3

ฉันจะแสดงความคิดเห็นกับคำตอบของ @ NeilG หากฉันมีชื่อเสียงมากพอ แต่อนิจจา ...

ฉันไม่เห็นด้วยกับคุณนีลเกี่ยวกับเรื่องนี้ คุณพูด:

... การเปิดใช้งานเฉลี่ยของอินพุตทั้งหมดซึ่งตามกฎของจำนวนมากจะเป็นเรื่องปกติ

ฉันจะโต้แย้งและบอกว่ากฎหมายจำนวนมากจำเป็นต้องให้ข้อสังเกตทั้งหมดเป็นอิสระจากกัน นี่ไม่ใช่กรณีในบางสิ่งบางอย่างเช่นอวนประสาท แม้ว่าโดยปกติการเปิดใช้งานแต่ละครั้งจะถูกกระจายหากคุณสังเกตว่าค่าอินพุตหนึ่งค่ามีค่าสูงเป็นพิเศษมันจะเปลี่ยนความน่าจะเป็นของอินพุตอื่นทั้งหมด ดังนั้น "ข้อสังเกต" ในกรณีนี้ปัจจัยการผลิตไม่เป็นอิสระและกฎหมายจำนวนมากไม่ได้ใช้

ถ้าฉันไม่เข้าใจคำตอบของคุณ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.