Làm thế nào AIC hoặc BIC có thể được sử dụng thay vì phân chia thử nghiệm / đào tạo?


8

Gần đây tôi đã bắt gặp một số nguồn "không chính thức" chỉ ra rằng trong một số trường hợp, nếu chúng tôi sử dụng AIC hoặc BIC để đào tạo mô hình chuỗi thời gian, chúng tôi không cần chia dữ liệu thành thử nghiệm và đào tạo - chúng tôi có thể sử dụng tất cả các dữ liệu cho đào tạo. (Các nguồn bao gồm những người khác, một cuộc thảo luận về bài đăng trên blog của Rob Hyndman trên CV , bài trình bày này từ Stanford hoặc Phần 4 của văn bản này ).

Cụ thể, dường như chúng chỉ ra rằng AIC hoặc BIC có thể được sử dụng khi tập dữ liệu quá nhỏ để cho phép phân tách thử nghiệm / đào tạo.

Ví dụ, nhận xét của Rob Hyndman: "Sử dụng AIC / BIC sẽ hiệu quả hơn nhiều khi sử dụng các bộ kiểm tra hoặc CV, và nó trở nên cần thiết cho chuỗi thời gian ngắn khi không có đủ dữ liệu để làm khác."

Tuy nhiên, tôi dường như không thể tìm thấy bất kỳ văn bản hoặc giấy tờ nào thảo luận chi tiết về vấn đề này.

Một điều đặc biệt làm tôi bối rối là AIC và BIC có xu hướng bất thường về việc xác thực chéo, điều đó có nghĩa là nếu có thể, họ sẽ thay thế CV cho các tập dữ liệu lớn - đi ngược lại ý tưởng của chúng là hữu ích cho các tập dữ liệu nhỏ.

Bất cứ ai có thể chỉ cho tôi một cuộc thảo luận chính thức (chương sách, bài báo, hướng dẫn) về ý tưởng này?

Câu trả lời:


4

Trong chương 5.5 của cuốn sách này , họ thảo luận về việc có bao nhiêu tiêu chí lựa chọn mô hình này phát sinh. Họ bắt đầu với tiêu chí FPE của Akaike cho các mô hình AR, và sau đó tiếp tục thảo luận về AIC, AICc và BIC. Họ đi bộ qua các dẫn xuất khá kỹ lưỡng.

Điểm chung của chúng là chúng điều tra những gì xảy ra khi bạn sử dụng một số dữ liệu trong mẫu được quan sát để ước tính các tham số mô hình, sau đó xem xét một số hàm mất (có nghĩa là lỗi dự đoán bình phương hoặc phân kỳ KL) trên một số không quan sát được / dữ liệu ngoài mẫu giả định{Xt}{Yt}phát sinh từ việc sử dụng mô hình ước tính trên dữ liệu mới này. Ý tưởng chính là a) bạn thực hiện kỳ ​​vọng đối với tất cả các dữ liệu và 2) sử dụng một số kết quả tiệm cận để có được biểu thức cho một số kỳ vọng. Số lượng từ (1) mang lại cho bạn hiệu suất tổng thể dự kiến, nhưng (2) giả định rằng bạn có nhiều dữ liệu hơn so với thực tế. Tôi không phải là chuyên gia, nhưng tôi cho rằng các phương pháp xác nhận chéo cũng nhắm vào các biện pháp thực hiện này; nhưng thay vì xem xét dữ liệu ngoài mẫu giả định, họ sử dụng dữ liệu thực được tách ra khỏi dữ liệu đào tạo.

Ví dụ đơn giản nhất là tiêu chí FPE. Giả sử bạn ước tính mô hình AR của mình trên toàn bộ dữ liệu (giống như tập kiểm tra) và thu được . Sau đó, tổn thất dự kiến ​​trên dữ liệu không được quan sát (đó là giả thuyết, không phân tách như trong xác thực chéo) là {φ^Tôi}Tôi{Yt}

E(Yn+1ϕ^1Ynϕ^pYn+1p)2=E(Yn+1ϕ1YnϕpYn+1p(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=E(Zt+(ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2=σ2+E[E[((ϕ^1ϕ1)Yn(ϕ^pϕp)Yn+1p)2|{Xt}]]=σ2+E[i=1pj=1p(ϕ^iϕi)(ϕ^jϕj)E[Yn+1iYn+1j|{Xt}]]=σ2+E[(ϕ^pϕp)Γp(ϕ^pϕp)](typo in book: n1/2 should be n1/2)σ2(1+pn)(nσ^2/σ2 approx. χnp2)nσ^2np(1+pn)=σ^2n+pnp.

Tôi không biết bất kỳ bài báo nào ngoài đỉnh đầu so sánh thực nghiệm hiệu suất của các tiêu chí này với các kỹ thuật xác nhận chéo. Tuy nhiên, cuốn sách này cung cấp rất nhiều tài nguyên về cách FPE, AIC, AICc và BIC so sánh với nhau.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.