Nói rằng tôi có một số kiến trúc mô hình học tập sâu, cũng như một kích thước lô nhỏ được chọn. Làm thế nào để tôi xuất phát từ những yêu cầu bộ nhớ dự kiến để đào tạo mô hình đó?
Ví dụ: xem xét một mô hình (không lặp lại) với đầu vào của kích thước 1000, 4 lớp ẩn được kết nối đầy đủ của kích thước 100 và một lớp đầu ra bổ sung của kích thước 10. Kích thước lô nhỏ là 256 ví dụ. Làm thế nào để xác định dấu chân bộ nhớ (RAM) gần đúng của quá trình đào tạo trên CPU và trên GPU? Nếu nó có bất kỳ sự khác biệt nào, giả sử mô hình được đào tạo trên GPU với TensorFlow (do đó sử dụng cuDNN).