15 Đạo hàm của hàm kích hoạt ReLU được định nghĩa là: R e L U ( x ) = m a x ( 0 , x )ReLBạn(x)= =mmộtx(0,x) Còn trường hợp đặc biệt khi có sự gián đoạn trong hàm tại thì sao?x = 0x= =0 self-study neural-networks — Tom Hale nguồn
17 Đạo hàm là: f( x ) = { 01nếu x < 0nếu x > 0f(x)= ={0nếu x<01nếu x>0 x = 0x= =0 x = 0x= =0 — Jim nguồn 1 0011x= 0x= =0 2 Quy ước là drdx = 1 (x> 0) — neuroguy123 f( 0 ) = 12f(0)= =12 3 Nhân tiện @TomHale, hãy xem câu trả lời của Nouroz Rahman tại quora.com/, ví dụ : "[...] Theo quan điểm của tôi, trong các hàm thư viện tích hợp (ví dụ tf.nn.relu():) đạo hàm tại x = 0 được lấy bằng 0 để đảm bảo một trình duyệt ma trận ... " — Jim