Đối với các mô hình thống kê và học máy, có nhiều mức độ dễ hiểu: 1) toàn bộ thuật toán, 2) các phần của thuật toán nói chung 3) các phần của thuật toán trên các đầu vào cụ thể và ba cấp độ này được chia thành hai phần, Một cho đào tạo và một cho chức năng eval. Hai phần cuối gần hơn nhiều so với phần đầu tiên. Tôi đang hỏi về # 2, điều này thường dẫn đến sự hiểu biết tốt hơn về # 3). (nếu đó không phải là "khả năng diễn giải" nghĩa là gì thì tôi nên nghĩ gì?)
Theo như khả năng diễn giải, hồi quy logistic là một trong những cách dễ nhất để giải thích. Tại sao trường hợp này vượt qua ngưỡng? Bởi vì thể hiện đó có tính năng tích cực đặc biệt này và nó có hệ số lớn hơn trong mô hình. Điều đó quá rõ ràng!
Một mạng lưới thần kinh là ví dụ kinh điển của một mô hình rất khó diễn giải. Tất cả những hệ số đó có nghĩa là gì? Tất cả đều cộng lại theo những cách điên rồ phức tạp đến mức khó có thể nói bất kỳ hệ số cụ thể nào đang thực sự làm.
Nhưng với tất cả các mạng lưới thần kinh sâu ra, có cảm giác như mọi thứ đang trở nên rõ ràng hơn. Các mô hình DL (có thể nói là tầm nhìn) dường như nắm bắt những thứ như các cạnh hoặc định hướng ở các lớp đầu và ở các lớp sau, có vẻ như một số nút thực sự là ngữ nghĩa (như 'tế bào bà ngoại' ). Ví dụ:
Đây là một hình ảnh ( của nhiều người ngoài kia ) được tạo ra bằng tay để trình bày nên tôi rất nghi ngờ. Nhưng nó là bằng chứng cho thấy ai đó nghĩ rằng đó là cách nó hoạt động.
Có thể trong quá khứ chỉ có đủ các lớp để chúng ta tìm thấy các đặc điểm dễ nhận biết; các mô hình đã thành công, không dễ để phân tích hậu kỳ cụ thể.
Nhưng có lẽ đồ họa chỉ là mơ tưởng. Có lẽ NN thực sự khó hiểu.
Nhưng nhiều đồ họa với các nút được dán nhãn bằng hình ảnh cũng thực sự hấp dẫn.
Các nút DL có thực sự tương ứng với các tính năng?