Các mạng lưới thần kinh có giải thích như cây quyết định không?


13

Trong Cây quyết định, chúng ta có thể hiểu đầu ra của cấu trúc cây và chúng ta cũng có thể hình dung cách Cây quyết định đưa ra quyết định. Vì vậy, cây quyết định có thể giải thích (đầu ra của chúng có thể được giải thích dễ dàng.)

Chúng ta có khả năng giải thích trong Mạng nơ-ron như với Cây quyết định không?


1
Một khuôn khổ không biết mô hình gần đây là mô hình LIME .
Emre

Trong lĩnh vực nhận dạng / phân loại đối tượng bằng cách sử dụng các mạng thần kinh, các bản đồ nhiệt được sử dụng phổ biến để trực quan hóa / giải thích một quyết định, chẳng hạn như trong Heatmapping.org . Hướng dẫn và trình diễn tương tác có sẵn.
Nikolas Rieble

Câu trả lời:


9

Tôi không đồng ý với câu trả lời trước và với đề xuất của bạn vì hai lý do:

1) Cây quyết định dựa trên các quyết định logic đơn giản kết hợp với nhau có thể đưa ra các quyết định phức tạp hơn. NHƯNG nếu đầu vào của bạn có 1000 thứ nguyên và các tính năng được học rất phi tuyến tính, bạn sẽ có được một cây quyết định thực sự lớn và nặng mà bạn sẽ không thể đọc / hiểu chỉ bằng cách nhìn vào các nút.

2) Mạng lưới thần kinh tương tự như trong cảm giác rằng chức năng mà chúng học được chỉ có thể hiểu được nếu chúng rất nhỏ. Khi lớn, bạn cần những thủ thuật khác để hiểu chúng. Như @SmallChess đã đề xuất, bạn có thể đọc bài viết này có tên Trực quan hóa và hiểu về Mạng kết hợp giải thích cho trường hợp cụ thể của mạng nơ ron tích chập, làm thế nào bạn có thể đọc các trọng số để hiểu nội dung như "nó đã phát hiện ra một chiếc xe trong hình này, chủ yếu là do bánh xe, không phải các thành phần còn lại ".

Những hình dung này đã giúp rất nhiều nhà nghiên cứu thực sự hiểu được điểm yếu trong kiến ​​trúc thần kinh của họ và giúp cải thiện các thuật toán đào tạo.


:-) Tôi thấy bản thân bài báo khó hiểu hơn chính mạng tích chập sâu. Đó là một bài báo rất toán học.
HelloWorld

1
Xin lỗi, tôi đã trích dẫn bài viết sai :-) Tôi chỉ thay đổi nó, bài viết này có nhiều đồ họa hơn, ý tưởng đảo ngược mạng lưới không thực sự khó nếu bạn biết cách convnets hoạt động. Theo cách tương tự, giấc mơ sâu của Google sử dụng sự truyền bá trở lại để chiếu một đầu ra cụ thể trong không gian đầu vào.
Robin

Có một video mà Matt Zeiler trưng bày nhiều ý tưởng này, được gọi là mạng Deconconvolution
Alex

7

Không. Mạng lưới thần kinh nói chung là khó hiểu. Bạn giao dịch sức mạnh dự đoán cho sự phức tạp của mô hình. Mặc dù có thể hình dung trọng lượng NN bằng đồ họa, nhưng chúng không cho bạn biết chính xác quyết định được đưa ra như thế nào. Chúc may mắn cố gắng để hiểu một mạng lưới sâu.

Có một gói Python phổ biến (và nó có một tờ giấy) có thể mô hình hóa NN cục bộ với một mô hình đơn giản hơn. Bạn có thể muốn xem xét.

https://github.com/marcotcr/lime


1
haha Tôi biết những gì nó cảm thấy như thế nào. những cái ôm : D
Dawny33

0

https://arxiv.org/abs/1704.02685 cung cấp một công cụ giải thích địa phương cụ thể NN: nâng sâu. Nó hoạt động bằng cách tuyên truyền sự khác biệt trong kích hoạt giữa thể hiện bạn muốn giải thích và một thể hiện tham chiếu. Nhận được một tài liệu tham khảo là một chút khó khăn, nhưng công cụ có vẻ dễ hiểu và có thể mở rộng tổng thể. Chúng tôi sử dụng nó trên dữ liệu bảng.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.