Dự đoán chuỗi thời gian sử dụng LSTM: Tầm quan trọng của việc tạo chuỗi thời gian cố định


21

Trong liên kết này về Stationarity và sự khác biệt , người ta đã đề cập rằng các mô hình như ARIMA yêu cầu một chuỗi thời gian cố định để dự báo vì các thuộc tính thống kê như trung bình, phương sai, tự tương quan, v.v ... không đổi theo thời gian. Vì các RNN có khả năng tốt hơn để tìm hiểu các mối quan hệ phi tuyến tính ( như được đưa ra ở đây: Lời hứa về Mạng thần kinh tái phát cho Dự báo chuỗi thời gian ) và thực hiện tốt hơn các mô hình chuỗi thời gian truyền thống khi dữ liệu lớn, điều cần thiết là phải hiểu cách thức văn phòng hóa dữ liệu sẽ ảnh hưởng đến kết quả của nó. Các câu hỏi tôi cần biết câu trả lời như sau:

  1. Trong trường hợp của các mô hình dự báo chuỗi thời gian truyền thống, sự ổn định trong dữ liệu chuỗi thời gian giúp dễ dự đoán hơn, tại sao và như thế nào?

  2. Trong khi xây dựng mô hình dự đoán chuỗi thời gian bằng LSTM , điều quan trọng là làm cho chuỗi dữ liệu thời gian đứng yên? Nếu vậy thì tại sao?

Câu trả lời:


29

Trong chuỗi thời gian chung không thực sự khác biệt với các vấn đề học máy khác - bạn muốn bộ kiểm tra của mình giống như 'tập huấn luyện của bạn, bởi vì bạn muốn mô hình bạn đã học trên tập huấn luyện của mình vẫn phù hợp với tập kiểm tra của bạn. Đó là khái niệm cơ bản quan trọng liên quan đến văn phòng phẩm. Chuỗi thời gian có độ phức tạp bổ sung rằng có thể có cấu trúc dài hạn trong dữ liệu của bạn mà mô hình của bạn có thể không đủ tinh vi để tìm hiểu. Ví dụ: khi sử dụng độ trễ tự động của N, chúng ta không thể học được các phụ thuộc trong các khoảng thời gian dài hơn N. Do đó, khi sử dụng các mô hình đơn giản như ARIMA, chúng tôi muốn dữ liệu cũng được đặt cục bộ .

  1. Như bạn đã nói, văn phòng phẩm chỉ có nghĩa là số liệu thống kê của mô hình không thay đổi theo thời gian (văn phòng phẩm 'cục bộ). Các mô hình ARIMA về cơ bản là các mô hình hồi quy trong đó bạn sử dụng các giá trị N trong quá khứ làm đầu vào cho hồi quy tuyến tính để dự đoán giá trị N + 1st. (Ít nhất, đó là những gì phần AR làm). Khi bạn học mô hình bạn đang học các hệ số hồi quy. Nếu bạn có một chuỗi thời gian trong đó bạn tìm hiểu mối quan hệ giữa các điểm N trong quá khứ và điểm tiếp theo, và sau đó bạn áp dụng điều đó cho một tập hợp các điểm N khác để dự đoán giá trị tiếp theo, bạn hoàn toàn cho rằng mối quan hệ tương tự giữ giữa N điểm dự đoán và điểm N + 1 sau đây bạn đang cố gắng dự đoán. Đó là sự ổn định. Nếu bạn tách tập huấn luyện của bạn thành hai khoảng và đào tạo riêng về chúng, và có hai mô hình rất khác nhau - bạn sẽ kết luận điều gì từ đó? Bạn có nghĩ rằng bạn sẽ cảm thấy tự tin khi áp dụng những mô hình đó để dự đoándữ liệu mới ? Bạn sẽ sử dụng cái nào? Những vấn đề này phát sinh nếu dữ liệu là 'không cố định'.

  2. Tôi nghĩ về RNNs là thế này - bạn vẫn đang học một mô hình từ một phân đoạn của chuỗi thời gian và bạn vẫn muốn áp dụng nó cho một phần khác của chuỗi thời gian để có được dự đoán. Mô hình học cách biểu diễn đơn giản của chuỗi thời gian - và nếu biểu diễn đó áp dụng trên tập huấn luyện nhưng không có trong tập kiểm tra, nó sẽ không hoạt động tốt. Tuy nhiên, không giống như ARIMA, RNN có khả năng học phi tuyến và các nút chuyên biệt như nút LSTM thậm chí còn tốt hơn về điều này. Đặc biệt, các LSTM và GRU rất giỏi trong việc học các phụ thuộc dài hạn. Xem ví dụ bài blog này . Thực tế, điều này có nghĩa là những gì có nghĩa là 'văn phòng phẩm' ít giòn hơn với RNNs, do đó, điều đó ít gây lo ngại. Tuy nhiên, để có thể học các phụ thuộc dài hạn, bạn cần RẤT NHIỀU dữ liệu để đào tạo.

Cuối cùng, bằng chứng là trong bánh pudding. Đó là, thực hiện xác nhận mô hình như bạn làm với bất kỳ dự án máy học nào khác. Nếu mô hình của bạn dự đoán tốt cho dữ liệu giữ, bạn có thể cảm thấy hơi tự tin khi sử dụng nó. Nhưng giống như bất kỳ dự án ML nào khác - nếu dữ liệu thử nghiệm của bạn khác biệt đáng kể so với dữ liệu đào tạo của bạn, mô hình của bạn sẽ không hoạt động tốt.


2
Câu trả lời này là tuyệt vời. Được xem xét kỹ lưỡng và kỹ lưỡng.
Số liệu thống kê

1
Đã được một lúc. Có ai đã thử nghiệm giả định này?
compguy24
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.