Mô hình định kỳ (CNN) trên dữ liệu điện não đồ


10

Tôi đang tự hỏi làm thế nào để giải thích một kiến ​​trúc định kỳ trong ngữ cảnh EEG. Cụ thể tôi đang nghĩ về điều này như là một CNN định kỳ (trái ngược với các kiến ​​trúc như LSTM), nhưng có lẽ nó cũng áp dụng cho các loại mạng lặp lại khác

Khi tôi đọc về R-CNN, chúng thường được giải thích trong bối cảnh phân loại hình ảnh. Chúng thường được mô tả là "học theo thời gian" hoặc "bao gồm cả ảnh hưởng của thời gian-1 đến đầu vào hiện tại"

Giải thích / giải thích này thực sự khó hiểu khi làm việc với dữ liệu EEG. Một ví dụ về R-CNN đang được sử dụng trên dữ liệu EEG có thể được tìm thấy ở đây

Hãy tưởng tượng tôi có các ví dụ đào tạo, mỗi ví dụ bao gồm một mảng 1x512. Mảng này chụp một điện áp đọc cho 1 điện cực tại 512 điểm thời gian liên tiếp. Nếu tôi sử dụng điều này làm đầu vào cho CNN định kỳ (sử dụng các kết cấu 1D), phần lặp lại của mô hình không thực sự nắm bắt được "thời gian", phải không? (như được ngụ ý bởi các mô tả / giải thích được thảo luận trước đó) Bởi vì trong bối cảnh này, thời gian đã được nắm bắt bởi chiều thứ hai của mảng

Vì vậy, với thiết lập như thế này, phần thường xuyên của mạng thực sự cho phép chúng ta mô hình hóa một CNN thông thường không thể (nếu không phải là thời gian)?

Dường như với tôi, việc lặp lại chỉ có nghĩa là thực hiện một phép chập, thêm kết quả vào đầu vào ban đầu và kết hợp lại. Điều này được lặp lại cho x số bước lặp lại. Quá trình này thực sự mang lại lợi thế gì?


Tôi nghĩ rằng việc giữ đầu vào ban đầu ở mỗi bước là hữu ích vì việc học nhận dạng có thể khó khăn, đó là lý do tại sao mạng dư hoặc chỉ sao chép đầu vào để bỏ qua hầu hết các lớp ẩn có thể hữu ích. Đối với trường hợp đặc biệt của RCNN được áp dụng cho eeg, bạn có thể tưởng tượng rằng các thẻ tích chập thời gian t = 50ms vì một số tính năng xuất hiện tại thời điểm đó. Sau đó, mạng của bạn có thể nhìn vào đầu vào ban đầu tại thời điểm cụ thể đó để phân tích thêm.
agemO

Câu trả lời:


1

Phần thường xuyên của một mạng cho phép bạn, nói chung, mô hình hóa các phụ thuộc dài hạn và ngắn hạn. Vì vậy, mô hình của bạn có thể có một số ý nghĩa của nhà nước.

Điều này thường thuận lợi nếu bạn đang sử dụng thời gian. Ví dụ: nếu bạn có dữ liệu từ máy đo nhịp tim và muốn phân loại giữa nghỉ ngơi, căng thẳng và hồi phục. Nếu datapoint của bạn cho biết nhịp tim của bạn ở mức 130, điều đó phụ thuộc vào việc bạn đang hồi phục sau khi tải cao hay điều gì khác.

Chỉnh sửa: Tôi quên câu hỏi thứ hai của bạn.

Dường như với tôi, việc lặp lại chỉ có nghĩa là thực hiện một phép chập, thêm kết quả vào đầu vào ban đầu và kết hợp lại. Điều này được lặp lại cho x số bước lặp lại. Quá trình này thực sự mang lại lợi thế gì?

Tôi có thể nghĩ ra một vài câu trả lời có thể. Bằng cách chia nhỏ phần lặp lại, bạn sẽ lọc nó. Vì vậy, bạn nhận được một tín hiệu sạch hơn và các lỗi sẽ không chồng nhiều như vậy. Vanilla rnn bị nổ tung độ dốc biến mất, vì vậy đây có thể là cách tiếp cận của anh ta để vượt qua nó. Hơn nữa, bạn đang nhúng các tính năng của mình trong RCnn, có thể dẫn, như ông đã nêu, đến nhiều đường để khai thác. Điều này làm cho nó ít có xu hướng quá mức, do đó khái quát hơn.


0
  • Mảng đầu vào 1x512 có nghĩa là: mạng lặp lại xử lý điện áp điện cực 512 lần, nói cách khác, bạn có một tính năng duy nhất để xử lý.
  • CNN với một tính năng là vô dụng.

-1

Hãy nhớ rằng CNN là các máy dò tính năng. Đầu ra của một lớp chập là một ma trận báo hiệu nơi phát hiện một tính năng nhất định.

Do đó, các CNN tái phát là các mạng thần kinh tái phát tìm hiểu các chuỗi tính năng, trong đó các tính năng đó cũng được học trong quá trình đào tạo.


2
Đây là một câu trả lời sai lệch, CNN không phải là trình phát hiện tính năng, chúng là một biến đổi của một không gian tính năng và sau đó là một công cụ ước tính chức năng ánh xạ các tính năng được chuyển đổi thành đầu ra. Ngoài ra, không phải tất cả những gì OP yêu cầu. Vui lòng sử dụng các ý kiến ​​thay vì cho ý kiến. Điều này làm cho câu hỏi nhìn được trả lời và ngăn cản người khác nhấp vào.
JahKnows

@JahKnows Nó phụ thuộc vào cách giải thích, cả hai đều không phải là họ? hãy xem (yosinski.com/deepvis). Nó có thể giúp bạn.
Truyền thông

@ncasas bạn vui lòng cung cấp một liên kết cho đoạn văn của bạn?
Truyền thông
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.