Định lý gần đúng phổ quát cho các mạng thần kinh giữ cho bất kỳ chức năng kích hoạt nào (sigmoid, ReLU, Softmax, v.v ...) hay nó bị giới hạn ở các hàm sigmoid?
Cập nhật: Như shimao chỉ ra trong các bình luận, nó không giữ được bất kỳ chức năng nào . Vì vậy, nó giữ cho lớp chức năng kích hoạt nào?