Tôi đang xem một bài thuyết trình của một chuyên gia ML từ một nhà bán lẻ lớn, nơi họ đã phát triển một mô hình để dự đoán các sự kiện chứng khoán.
Chúng ta hãy giả sử rằng theo thời gian, mô hình của họ trở nên rất chính xác, bằng cách nào đó có phải là "tự đánh bại" không? Đó là, nếu mô hình thực sự hoạt động tốt, thì họ sẽ có thể dự đoán trước các sự kiện chứng khoán và tránh chúng, cuối cùng đến một điểm mà họ có ít hoặc không có sự kiện chứng khoán nào cả. Nhưng nếu đó là trường hợp, sẽ không có đủ dữ liệu lịch sử để chạy mô hình của họ hoặc mô hình của họ bị trật bánh, bởi vì các yếu tố nhân quả tương tự được sử dụng để chỉ ra một sự kiện chứng khoán không còn làm như vậy nữa.
Các chiến lược để đối phó với một kịch bản như vậy là gì?
Ngoài ra, người ta có thể hình dung ra tình huống ngược lại: Ví dụ, một hệ thống đề xuất có thể trở thành một "lời tiên tri tự hoàn thành" với sự gia tăng doanh số của các cặp vật phẩm được thúc đẩy bởi đầu ra của hệ thống đề xuất, ngay cả khi hai mặt hàng không thực sự là điều đó liên quan.
Dường như với tôi rằng cả hai đều là kết quả của một loại vòng phản hồi xảy ra giữa đầu ra của bộ dự đoán và các hành động được thực hiện dựa trên nó. Làm thế nào người ta có thể đối phó với các tình huống như thế này?