Có, bạn có thể sử dụng các kỹ thuật học sâu để xử lý dữ liệu phi hình ảnh. Tuy nhiên, các lớp mô hình khác vẫn rất cạnh tranh với các mạng thần kinh bên ngoài xử lý tín hiệu và các nhiệm vụ liên quan.
Để sử dụng các phương pháp học sâu về dữ liệu phi tín hiệu / không theo chuỗi, thông thường bạn sử dụng mạng nhiều lớp chuyển tiếp đơn giản. Không cần các lớp chập hoặc lớp gộp. Kiến trúc tốt nhất ngoài điều đó cần được khám phá với xác nhận chéo và có thể tốn thời gian để khám phá vì các NN sâu cần rất nhiều tính toán để đào tạo.
Theo kinh nghiệm của tôi, tôi đã cố gắng sử dụng các mạng thần kinh sâu (-ish, thường là ~ 5 lớp) trong các cuộc thi Kaggle:
Bỏ học vẫn có hiệu quả cao để thường xuyên hóa và cải thiện độ chính xác
Chuẩn hóa đầu vào - thường có nghĩa là 0, độ lệch chuẩn 1, rất quan trọng
Các chức năng kích hoạt lớp ẩn có thể tạo sự khác biệt. Mặc dù ReLU giảm một số vấn đề với độ dốc biến mất, nhưng theo kinh nghiệm của tôi, nó không mạnh mẽ hơn với dữ liệu không có tín hiệu và bạn sẽ muốn một số dạng khác. Nếu bạn chỉ có một vài lớp thì sigmoid hoặc tanh vẫn hoạt động tốt. Mặt khác, xem xét các biến thể ReLU, PReLU, ELU và các biến thể ReLU bị rò rỉ khác cố gắng khắc phục các vấn đề của nó với các tế bào thần kinh "đã chết".
Sử dụng các trình tối ưu hóa được thiết kế để học sâu, chẳng hạn như Adam, Adagrad hoặc RMSProp
Sử dụng phương pháp khởi tạo trọng lượng hoạt động với học tập sâu, chẳng hạn như Glorot.
Cân nhắc sử dụng các lớp Batch Chuẩn hóa. Không phải là thứ tôi có nhiều kinh nghiệm, nhưng tôi đã thấy những người khác làm tốt với phương pháp này.
Bất chấp tất cả những điều này, XGBoost có thể thường xuyên và dễ dàng đánh bại các NN sâu với nỗ lực điều chỉnh và đào tạo tối thiểu để so sánh (tất nhiên tùy thuộc vào vấn đề và dữ liệu bạn có). Nếu độ chính xác là tất cả đối với bạn, thì có thể - mặc dù không được bảo đảm - rằng một nhóm gồm các NN sâu và mô hình khác như XGBoost sẽ hoạt động tốt hơn so với đơn lẻ.