2
Hành vi kỳ lạ với trình tối ưu hóa Adam khi đào tạo quá lâu
Tôi đang cố gắng đào tạo một perceptron (1000 đơn vị đầu vào, 1 đầu ra, không có lớp ẩn) trên 64 điểm dữ liệu được tạo ngẫu nhiên. Tôi đang sử dụng Pytorch bằng trình tối ưu hóa Adam: import torch from torch.autograd import Variable torch.manual_seed(545345) N, D_in, D_out …