Cân bằng Tái thiết so với Bộ mất tự động biến đổi KL


11

Tôi đang đào tạo một trình tự động biến đổi có điều kiện trên một tập dữ liệu các khuôn mặt. Khi tôi đặt Mất KLL bằng với thời hạn mất Tái thiết, bộ tự động mã hóa của tôi dường như không thể tạo ra các mẫu khác nhau. Tôi luôn luôn có cùng một kiểu khuôn mặt xuất hiện: nhập mô tả hình ảnh ở đây

Những mẫu này thật kinh khủng. Tuy nhiên, khi tôi giảm trọng lượng của KLL giảm 0,001, tôi nhận được các mẫu hợp lý: nhập mô tả hình ảnh ở đây

Vấn đề là không gian tiềm ẩn đã học không được trơn tru. Nếu tôi cố gắng thực hiện phép nội suy tiềm ẩn hoặc tạo một mẫu ngẫu nhiên, tôi sẽ nhận được rác. Khi thuật ngữ KLL có trọng số nhỏ (0,001), tôi quan sát hành vi mất sau: nhập mô tả hình ảnh ở đây Lưu ý rằng VggLoss (thuật ngữ tái tạo) giảm, trong khi KLLoss tiếp tục tăng.

Tôi cũng đã thử tăng kích thước của không gian tiềm ẩn, nhưng điều này cũng không hoạt động.

Lưu ý ở đây, khi hai thuật ngữ tổn thất có trọng số bằng nhau, làm thế nào thuật ngữ KLL chiếm ưu thế nhưng không cho phép tổn thất tái thiết giảm xuống:

nhập mô tả hình ảnh ở đây

Điều này dẫn đến sự tái thiết khủng khiếp. Có bất kỳ đề xuất nào về cách cân bằng hai điều khoản mất mát này hoặc bất kỳ điều gì có thể khác để thử để trình tự động mã hóa của tôi học được một không gian tiềm ẩn trơn tru, nội suy trong khi tạo ra các bản dựng lại hợp lý không?

Câu trả lời:


6

Đến bữa tiệc muộn một chút và có lẽ bạn đã vượt qua điều này, nhưng cũng có tài liệu rằng bạn phải "hâm nóng" thời hạn mất KL bằng cách bắt đầu từ 0 và luyện tập một chút về việc mất tái thiết trước khi đưa ra mất KL hoặc kết quả sẽ không tốt Không rõ từ bài đăng của bạn nếu bạn đã làm điều này, nhưng đó là một ví dụ kinh điển về cách đào tạo cảm động này có thể - đôi khi tôi tự hỏi chúng thích hợp như thế nào khi được kiểm chứng chéo vì nó rất hay bị lỗi, cùng với một chút bụi pixie và cầu vồng.


Điểm thú vị, bạn có một tài liệu tham khảo cho điều đó?
dopexxx

4
@dopexxx Tra cứu "KL ủ", ví dụ arxiv.org/pdf/1511.06349.pdf
jayelm

Cảm ơn! Ai khác ngoài Bengio đã giới thiệu rằng: D Thật ra tôi đã tìm thấy bài báo vào một lúc nào đó nhưng đã quên mất chủ đề này. Đây là một tài liệu tham khảo tuyệt vời
dopexxx

5

Tuy nhiên, khi tôi giảm trọng lượng của mất KLL xuống 0,001, tôi nhận được các mẫu hợp lý: (...) Vấn đề là không gian tiềm ẩn đã học không được trơn tru.

Hình như là quá mức. Hãy nhớ rằng mất KL trên loại không gian tiềm ẩn tương ứng với chính quy.

Có bất kỳ đề xuất nào về cách cân bằng hai điều khoản mất mát này hoặc bất kỳ điều gì có thể khác để thử để trình tự động mã hóa của tôi học được một không gian tiềm ẩn trơn tru, nội suy, trong khi tạo ra các cấu trúc hợp lý không?

Gần đây tôi đã tình cờ đọc được bài báo này: -VAE: Học các khái niệm trực quan cơ bản với khung biến đổi ràng buộc (nó thực sự sử dụng tập dữ liệu của bạn trong một ví dụ).β

Từ tờ giấy ( là thông số bạn đã thay đổi):β

Chúng tôi giới thiệu một siêu tham số có thể điều chỉnh , cân bằng giữa các ràng buộc về dung lượng và độ độc lập của kênh tiềm ẩn với độ chính xác tái tạo (...) -VAE ổn định để đào tạo, đưa ra một số giả định về dữ liệu và dựa vào việc điều chỉnh một siêu tham số duy nhất , có thể được tối ưu hóa trực tiếp thông qua tìm kiếm siêu tham số bằng cách sử dụng dữ liệu được dán nhãn yếu hoặc thông qua kiểm tra trực quan theo kinh nghiệm đối với dữ liệu hoàn toàn không được giám sát.βββ

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.