ฉันคิดว่าทั้ง PReLU และ LeLe ReLU นั้นคือ
Keras แต่มีฟังก์ชั่นทั้งในเอกสาร
ReLU ที่รั่วไหล
return K.relu(inputs, alpha=self.alpha)
ดังนั้น (ดูรหัส relu )
PReLU
def call(self, inputs, mask=None):
pos = K.relu(inputs)
if K.backend() == 'theano':
neg = (K.pattern_broadcast(self.alpha, self.param_broadcast) *
(inputs - K.abs(inputs)) * 0.5)
else:
neg = -self.alpha * K.relu(-inputs)
return pos + neg
ดังนั้น
คำถาม
ฉันทำอะไรผิดหรือเปล่า? ไม่และเทียบเท่ากับ (สมมติว่า ?)