Trọng tâm của câu hỏi này
"Làm thế nào ... chúng ta có thể xử lý dữ liệu từ phân phối thực và dữ liệu từ mô hình thế hệ trong cùng một lần lặp?
Phân tích Ấn phẩm nền tảng
Trong trang được tham khảo, Hiểu về Mạng lưới đối thủ sáng tạo (2017) , ứng cử viên tiến sĩ Daniel Sieta đã tham khảo chính xác Mạng lưới đối thủ tạo, Goodfellow, Pouget-Abadie, Mirza, Xu, Warde-Farley, Ozair, Courville, và Bengio, tháng 6 năm 2014 . Đó là những điều trừu tượng, "Chúng tôi đề xuất một khung mới để ước tính các mô hình thế hệ thông qua một quá trình đối nghịch, trong đó chúng tôi đồng thời đào tạo hai mô hình ..." Bài báo gốc này định nghĩa hai mô hình được định nghĩa là MLP (đa giác quan).
- Mô hình tạo, G
- Mô hình phân biệt đối xử, D
Hai mô hình này được kiểm soát theo cách mà một mô hình cung cấp một hình thức phản hồi tiêu cực đối với mô hình kia, do đó, thuật ngữ đối nghịch.
- G được đào tạo để nắm bắt phân phối dữ liệu của một tập hợp các ví dụ đủ tốt để đánh lừa D.
- D được đào tạo để khám phá xem liệu đầu vào của nó là giả của G hay tập hợp các ví dụ cho hệ thống GAN.
(Tập hợp các ví dụ cho hệ thống GAN đôi khi được gọi là các mẫu thực, nhưng chúng có thể không thật hơn các mẫu được tạo. Cả hai đều là các mảng số trong một máy tính, một bộ có nguồn gốc bên trong và bộ kia có nguồn gốc bên ngoài nguồn gốc. Cho dù những cái bên ngoài là từ một camera chỉ vào một số cảnh vật lý không liên quan đến hoạt động của GAN.)
Về mặt xác suất, đánh lừa D đồng nghĩa với việc tối đa hóa xác suất D sẽ tạo ra càng nhiều dương tính giả và phủ định sai khi phân loại đúng, mỗi loại 50%. Trong khoa học thông tin, điều này có nghĩa là giới hạn thông tin D có của G tiến tới 0 khi t tiến đến vô cùng. Đó là một quá trình tối đa hóa entropy của G theo quan điểm của D, do đó, thuật ngữ entropy chéo.
Làm thế nào hội tụ được hoàn thành
Bởi vì hàm mất được sao chép từ văn bản năm 2017 của Sieta trong câu hỏi là của D, được thiết kế để giảm thiểu entropy chéo (hoặc tương quan) giữa hai phân phối khi áp dụng cho toàn bộ điểm cho trạng thái đào tạo nhất định.
H((x1,y1),D)=1D(x1)
Có một hàm mất riêng cho G, được thiết kế để tối đa hóa entropy chéo. Lưu ý rằng có HAI cấp độ chi tiết đào tạo trong hệ thống.
- Đó là trò chơi di chuyển trong một trò chơi hai người chơi
- Đó là các mẫu đào tạo
Chúng tạo ra phép lặp lồng nhau với lần lặp bên ngoài như sau.
- Đào tạo tiền thu được bằng cách sử dụng hàm mất của G.
- Các mẫu đầu vào giả được tạo từ G ở trạng thái đào tạo hiện tại.
- Đào tạo tiền thu được bằng cách sử dụng hàm mất của D.
- Lặp lại nếu entropy chéo chưa đủ tối đa, D vẫn có thể phân biệt đối xử.
Khi D cuối cùng thua trò chơi, chúng tôi đã đạt được mục tiêu của mình.
- G phục hồi phân phối dữ liệu đào tạo
- D đã được giảm đến mức không hiệu quả ("xác suất 1/2 ở mọi nơi")
Tại sao đào tạo đồng thời là cần thiết
Nếu hai mô hình không được đào tạo theo cách thức qua lại để mô phỏng đồng thời, sự hội tụ trong mặt phẳng đối nghịch (phép lặp bên ngoài) sẽ không xảy ra trên giải pháp duy nhất được nêu trong bài báo năm 2014.
Thêm thông tin
Ngoài câu hỏi, mục quan tâm tiếp theo trong bài báo của Sieta là, "Thiết kế kém của chức năng mất của máy phát", có thể dẫn đến các giá trị độ dốc không đủ để dẫn hướng xuống và tạo ra cái mà đôi khi được gọi là bão hòa. Độ bão hòa chỉ đơn giản là giảm tín hiệu phản hồi dẫn hướng giảm dần trong quá trình truyền ngược trở lại nhiễu hỗn loạn phát sinh từ làm tròn điểm nổi. Thuật ngữ này xuất phát từ lý thuyết tín hiệu.
Tôi đề nghị nghiên cứu bài báo năm 2014 của Goodfellow et alia (các nhà nghiên cứu dày dạn) để tìm hiểu về công nghệ GAN thay vì trang 2017.