Vì vậy, khi nhìn vào Mạng thần kinh chức năng cơ sở bán kính, tôi nhận thấy rằng mọi người chỉ khuyến nghị sử dụng 1 lớp ẩn, trong khi với mạng nơ ron perceptron đa lớp, nhiều lớp được coi là tốt hơn.
Vì các mạng RBF có thể được huấn luyện với phiên bản lan truyền ngược, có lý do nào khiến các mạng RBF sâu hơn không hoạt động được không, hoặc một lớp RBF không thể được sử dụng làm lớp áp chót hoặc lớp đầu tiên trong mạng MLP sâu? (Tôi đã suy nghĩ lớp áp chót để về cơ bản nó có thể được đào tạo về các tính năng được học bởi các lớp MLP trước đó)