Vào năm 2015, Tishby và Zaslavsky đã xuất bản một bài báo nổi tiếng tuyên bố rằng cái gọi là Nguyên tắc thắt cổ chai thông tin có thể được sử dụng để hiểu một số hành vi của các mạng lưới thần kinh sâu sắc. Trong một bài báo gần đây hơn (tháng 4 năm 2017) , Schwartz-Ziv và Tishby mở rộng về những tuyên bố này, đặc biệt là hình dung một số kết quả.
Cuối năm 2017, một bài báo quan trọng của Saxe et al. đã được đăng trên trang web OpenReview (với các phiên bản gần đây như 2 tuần trước). Nó tuyên bố rằng nhiều khiếu nại được đưa ra trong bài báo Schwartz-Ziv-Tishby không giữ được, hoặc ít nhất là không theo nguyên tắc chung. Trên thực tế, nếu tôi đọc đúng, họ cho rằng kết quả trực quan là một yếu tố của sự lựa chọn chức năng kích hoạt - một điều không quan trọng theo lý thuyết.
Tuy nhiên, trong các bình luận, Schwartz-Ziv và Tishby xuất hiện với một danh sách dài các bình luận trên tờ báo quan trọng, nói rằng những lời chỉ trích bị mất dấu. Đến lượt nó, các tác giả của bài báo quan trọng trả lời, nhưng có lẽ cuộc trò chuyện vẫn chưa kết thúc.
Tôi quan tâm đến việc bắt đầu một dự án nghiên cứu về các khía cạnh học tập sâu của nút thắt thông tin, nhưng lo lắng rằng tôi sẽ lãng phí thời gian để học một cái gì đó đã bị 'bác bỏ'. Do đó, câu hỏi của tôi là:
Ý kiến chuyên gia hiện tại về khả năng áp dụng Nguyên tắc tắc nghẽn thông tin để hiểu Deep Learning là gì?
Cụ thể, tôi quan tâm đến nghiên cứu về chủ đề này ngoài những gì tôi đã liên kết và bình luận của các chuyên gia (trực tiếp hoặc gián tiếp).