Một đơn vị tối đa có thể học một hàm tuyến tính, lồi với tối đa k mảnh. 1
Vì vậy, khi k là 2, bạn có thể triển khai ReLU, ReLU tuyệt đối, ReLU bị rò rỉ, v.v. hoặc nó có thể học cách thực hiện một chức năng mới. Nếu k là 10, bạn thậm chí có thể học hàm lồi.
Khi k là 2:
tế bào thần kinh Maxout tính toán hàm . Cả ReLU và Leaky ReLU đều là trường hợp đặc biệt của mẫu này (ví dụ: đối với ReLU, chúng tôi có ). Do đó, tế bào thần kinh Maxout được hưởng tất cả các lợi ích của đơn vị ReLU (chế độ hoạt động tuyến tính, không bão hòa) và không có nhược điểm của nó (chết ReLU).max(wT1x+b1,wT2x+b2)w1,b1=0
Tuy nhiên, không giống như các nơ-ron ReLU, nó nhân đôi số lượng tham số cho mỗi nơ-ron đơn lẻ, dẫn đến tổng số tham số cao. 2
Bạn có thể đọc chi tiết tại đây:
1. Sách DL
2. http://cs231n.github.io/neural-networks-1