ฟังก์ชั่น Relu คือf(x)=max(0,x).โดยปกติจะใช้องค์ประกอบที่ชาญฉลาดกับการส่งออกของฟังก์ชั่นอื่น ๆ เช่นผลิตภัณฑ์เมทริกซ์เวกเตอร์ ในประเพณี MLP หน่วยแก้ไขจะแทนที่ฟังก์ชั่นการเปิดใช้งานอื่น ๆ ทั้งหมดยกเว้นชั้นการอ่านข้อมูล แต่ฉันคิดว่าคุณสามารถผสมและจับคู่พวกเขาหากคุณต้องการ
วิธีหนึ่งที่ ReLUs ปรับปรุงเครือข่ายประสาทคือการเร่งการฝึกอบรม การคำนวณการไล่ระดับสีนั้นง่ายมาก (ทั้ง 0 หรือ 1 ขึ้นอยู่กับเครื่องหมายของx ) นอกจากนี้ขั้นตอนการคำนวณของ ReLU นั้นง่าย: องค์ประกอบเชิงลบใด ๆ ถูกตั้งค่าเป็น 0.0 - ไม่มีเลขชี้กำลังไม่มีการดำเนินการคูณหรือการหาร
การไล่สีของเครือข่ายโลจิสติกและไฮเพอร์โบลิกแทนเจนต์มีขนาดเล็กกว่าส่วนที่เป็นบวกของ ReLU ซึ่งหมายความว่าส่วนที่เป็นบวกจะได้รับการปรับปรุงอย่างรวดเร็วยิ่งขึ้นเมื่อการฝึกอบรมดำเนินไป อย่างไรก็ตามสิ่งนี้มีค่าใช้จ่าย 0 การไล่ระดับสีทางด้านซ้ายมือมีปัญหาของตัวเองที่เรียกว่า "เซลล์ประสาทที่ตายแล้ว" ซึ่งการปรับปรุงการไล่ระดับสีตั้งค่าที่เข้ามาเป็น ReLU เพื่อให้เอาต์พุตเป็นศูนย์เสมอ หน่วย ReLU ที่แก้ไขเช่น ELU (หรือ LeLe ReLU หรือ PReLU เป็นต้น) สามารถแก้ไขปัญหานี้ได้
ddxReLU(x)=1∀x>00 ในทางตรงกันข้ามการไล่ระดับสีของหน่วย sigmoid คือที่มากที่สุด0.25; ในทางตรงกันข้ามtanhอัตราที่ดีขึ้นสำหรับการป้อนข้อมูลในภูมิภาคใกล้ 0 ตั้งแต่0.25<ddxtanh(x)≤1∀x∈[−1.31,1.31](โดยประมาณ)