Có thể sử dụng chức năng mất entropy chéo với nhãn mềm?


10

Tôi có một vấn đề phân loại trong đó pixel sẽ được dán nhãn bằng nhãn mềm (biểu thị xác suất) thay vì 0,1 nhãn cứng. Trước đó với nhãn 0,1 pixel cứng, chức năng mất entropy chéo (sigmoidCross entropyLossLayer từ Caffe) đã cho kết quả tốt. Có thể sử dụng lớp mất entropy chéo sigmoid (từ Caffe) cho vấn đề phân loại mềm này không?


Tôi đang tìm kiếm một hàm entropy chéo có thể xử lý các nhãn có giá trị thực. Xin vui lòng cho tôi biết nếu bạn biết câu trả lời ở đây
Amir

Câu trả lời:


27

Câu trả lời là có, nhưng bạn phải xác định nó đúng cách.

pq

H(p,q)=yp(y)logq(y)

pqx0y0

yI{y=y0}logq(yx0)=logq(y0x0)

I{}

Trong trường hợp các nhãn 'mềm' như bạn đề cập, các nhãn không còn là bản sắc lớp nữa, mà là xác suất của hai lớp có thể. Do đó, bạn không thể sử dụng biểu thức chuẩn cho mất nhật ký. Nhưng, khái niệm entropy chéo vẫn được áp dụng. Trong thực tế, nó có vẻ tự nhiên hơn trong trường hợp này.

ys(x)x

p(yx)={s(x)If y=11s(x)If y=0

Trình phân loại cũng cung cấp một phân phối trên các lớp, cho đầu vào:

q(yx)={c(x)If y=11c(x)If y=0

c(x)x

pq{0,1}

H(p,q)=p(y=0x)logq(y=0x)p(y=1x)logq(y=1x)=(1s(x))log(1c(x))s(x)logc(x)

Đó là biểu thức cho một điểm dữ liệu quan sát duy nhất. Hàm mất sẽ là giá trị trung bình trên tất cả các điểm dữ liệu. Tất nhiên, điều này có thể được khái quát để phân loại đa lớp là tốt.


3
Tôi tiếp tục trở lại với sự sáng suốt của câu trả lời này.
auro
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.