16 อนุพันธ์ของฟังก์ชันการเปิดใช้งาน ReLU คืออะไร: ReLU(x)=max(0,x)ReLU(x)=max(0,x) แล้วกรณีพิเศษที่ฟังก์ชันมีความไม่ต่อเนื่องที่ไหร่?x=0x=0 self-study neural-networks — ทอมเฮล แหล่งที่มา
17 อนุพันธ์คือ: f(x)={01if x<0if x>0f(x)={0if x<01if x>0 และไม่ได้กำหนดใน 0x=0x=0 เหตุผลที่ไม่ได้กำหนดที่คืออนุพันธ์ของซ้าย - ขวาไม่เท่ากันx=0x=0 — จิม แหล่งที่มา 1 0011x=0x=0 2 อนุสัญญาฉบับนี้คือ drdx = 1 (x> 0) — neuroguy123 f(0)=12f(0)=12 3 @ TomHale โดยวิธีดูคำตอบของ Nouroz Rahman ที่quora.com/ ...tf.nn.relu() — Jim