Trong chuỗi thời gian chung không thực sự khác biệt với các vấn đề học máy khác - bạn muốn bộ kiểm tra của mình giống như 'tập huấn luyện của bạn, bởi vì bạn muốn mô hình bạn đã học trên tập huấn luyện của mình vẫn phù hợp với tập kiểm tra của bạn. Đó là khái niệm cơ bản quan trọng liên quan đến văn phòng phẩm. Chuỗi thời gian có độ phức tạp bổ sung rằng có thể có cấu trúc dài hạn trong dữ liệu của bạn mà mô hình của bạn có thể không đủ tinh vi để tìm hiểu. Ví dụ: khi sử dụng độ trễ tự động của N, chúng ta không thể học được các phụ thuộc trong các khoảng thời gian dài hơn N. Do đó, khi sử dụng các mô hình đơn giản như ARIMA, chúng tôi muốn dữ liệu cũng được đặt cục bộ .
Như bạn đã nói, văn phòng phẩm chỉ có nghĩa là số liệu thống kê của mô hình không thay đổi theo thời gian (văn phòng phẩm 'cục bộ). Các mô hình ARIMA về cơ bản là các mô hình hồi quy trong đó bạn sử dụng các giá trị N trong quá khứ làm đầu vào cho hồi quy tuyến tính để dự đoán giá trị N + 1st. (Ít nhất, đó là những gì phần AR làm). Khi bạn học mô hình bạn đang học các hệ số hồi quy. Nếu bạn có một chuỗi thời gian trong đó bạn tìm hiểu mối quan hệ giữa các điểm N trong quá khứ và điểm tiếp theo, và sau đó bạn áp dụng điều đó cho một tập hợp các điểm N khác để dự đoán giá trị tiếp theo, bạn hoàn toàn cho rằng mối quan hệ tương tự giữ giữa N điểm dự đoán và điểm N + 1 sau đây bạn đang cố gắng dự đoán. Đó là sự ổn định. Nếu bạn tách tập huấn luyện của bạn thành hai khoảng và đào tạo riêng về chúng, và có hai mô hình rất khác nhau - bạn sẽ kết luận điều gì từ đó? Bạn có nghĩ rằng bạn sẽ cảm thấy tự tin khi áp dụng những mô hình đó để dự đoándữ liệu mới ? Bạn sẽ sử dụng cái nào? Những vấn đề này phát sinh nếu dữ liệu là 'không cố định'.
Tôi nghĩ về RNNs là thế này - bạn vẫn đang học một mô hình từ một phân đoạn của chuỗi thời gian và bạn vẫn muốn áp dụng nó cho một phần khác của chuỗi thời gian để có được dự đoán. Mô hình học cách biểu diễn đơn giản của chuỗi thời gian - và nếu biểu diễn đó áp dụng trên tập huấn luyện nhưng không có trong tập kiểm tra, nó sẽ không hoạt động tốt. Tuy nhiên, không giống như ARIMA, RNN có khả năng học phi tuyến và các nút chuyên biệt như nút LSTM thậm chí còn tốt hơn về điều này. Đặc biệt, các LSTM và GRU rất giỏi trong việc học các phụ thuộc dài hạn. Xem ví dụ bài blog này . Thực tế, điều này có nghĩa là những gì có nghĩa là 'văn phòng phẩm' ít giòn hơn với RNNs, do đó, điều đó ít gây lo ngại. Tuy nhiên, để có thể học các phụ thuộc dài hạn, bạn cần RẤT NHIỀU dữ liệu để đào tạo.
Cuối cùng, bằng chứng là trong bánh pudding. Đó là, thực hiện xác nhận mô hình như bạn làm với bất kỳ dự án máy học nào khác. Nếu mô hình của bạn dự đoán tốt cho dữ liệu giữ, bạn có thể cảm thấy hơi tự tin khi sử dụng nó. Nhưng giống như bất kỳ dự án ML nào khác - nếu dữ liệu thử nghiệm của bạn khác biệt đáng kể so với dữ liệu đào tạo của bạn, mô hình của bạn sẽ không hoạt động tốt.