Có phải Nassim Taleb nói đúng về việc AI không thể dự đoán chính xác một số loại phân phối nhất định?


8

Vì vậy, Taleb có hai phương pháp để mô tả phân phối dữ liệu nói chung. Một là Mediocristan, về cơ bản có nghĩa là những thứ nằm trên phân phối Gaussian như chiều cao và / hoặc cân nặng của con người.

Cái còn lại được gọi là Extremistan, mô tả một phân phối giống như Pareto hoặc đuôi béo hơn. Một ví dụ là phân phối của cải, 1% số người sở hữu 50% của cải hoặc thứ gì đó gần với điều đó và do đó, việc dự đoán từ các bộ dữ liệu hạn chế khó hơn nhiều hoặc thậm chí là không thể. Điều này là do bạn có thể thêm một mẫu vào tập dữ liệu của mình và hậu quả lớn đến mức phá vỡ mô hình hoặc có hiệu ứng lớn đến mức hủy bỏ mọi lợi ích từ các dự đoán chính xác trước đó. Trên thực tế đây là cách anh ta tuyên bố đã kiếm được tiền trên thị trường chứng khoán, bởi vì mọi người khác đang sử dụng các mô hình phân phối Gaussian xấu để dự đoán thị trường, thực sự sẽ hoạt động trong một thời gian ngắn nhưng khi mọi thứ trở nên sai lầm, họ đã thực sự gặp trục trặc sai khiến bạn bị lỗ ròng trên thị trường.

Tôi tìm thấy video này về Taleb đang được hỏi về AI. Yêu cầu của ông là AI không hoạt động (cũng như vậy) đối với những thứ rơi vào tình trạng cực đoan.

Anh ấy có đúng không? Một số thứ sẽ không thể đoán trước được ngay cả với AI?

Đây là video tôi đang đề cập đến https://youtu.be/B2-QCv-hChY?t=43m08s

Câu trả lời:


6

Có và không!

Không có lý do cố hữu mà các hệ thống máy học không thể đối phó với các sự kiện cực đoan. Là một phiên bản đơn giản, bạn có thể tìm hiểu các tham số của phân phối Weibull hoặc một mô hình giá trị cực trị khác, từ dữ liệu.

Vấn đề lớn hơn là với những điều chưa biết so với những điều chưa biết Nếu bạn biết rằng các sự kiện hiếm có thể xảy ra (như với dự đoán động đất), bạn có thể kết hợp kiến ​​thức đó vào các mô hình bạn phát triển và bạn sẽ có được thứ gì đó hoạt động tốt hoặc tốt hơn con người trong miền đó. Nếu bạn không biết rằng các sự kiện hiếm có thể xảy ra (như với, một vụ sụp đổ trên thị trường chứng khoán được tạo ra bởi các mặc định nhà ở tương quan), thì mô hình của bạn cũng sẽ phản ánh điều đó.

Tôi có xu hướng nghĩ rằng Taleb hơi bất công ở đây: AI không thể xử lý các loại sự kiện này một cách chính xác vì những người tạo ra nó (chúng tôi) không thể xử lý chúng! Nếu chúng ta biết chúng là có thể, thì chúng ta có thể xử lý chúng khá tốt và AI cũng vậy.


1
Không phải là không có khả năng của những mô hình này (bao gồm cả những người trong não) để xử lý loại quan điểm chưa biết của mình? Vì luôn có giới hạn về lượng dữ liệu chính xác, chúng tôi có thể thu thập trong các mẫu của mình và trong các trường hợp phân phối đuôi béo, hiệu ứng của ngoại lệ có thể rất lớn, trong khi trong phân phối bình thường, hiệu ứng hoặc thiệt hại của ngoại lệ cực đoan thường sẽ khá nhỏ Vì vậy, như thể anh ta đang nói rằng đây là một đặc điểm cơ bản cho các hệ thống kiến ​​thức và dự đoán, dựa trên cơ sở sinh học hoặc máy móc, do đó tại sao AI sẽ bị hạn chế trong một số lĩnh vực nhất định.
Josiah tuyên bố

2
Hừm. Tôi nghĩ có hai vấn đề. Một là tuyên bố rằng chúng ta không thể xử lý các bản phân phối béo với AI. Điều này là sai. Một điều nữa là, nếu bạn không biết phân phối nào phù hợp với vấn đề bạn đang nghiên cứu (nghĩa là, nếu bạn không thực sự hiểu vấn đề của mình), thì bạn sẽ ngạc nhiên trước những sự kiện bất ngờ. Đây là sự thật. Tôi nghĩ Taleb đang nhầm lẫn hai vấn đề, khi thực sự chúng là riêng biệt.
John Doucette
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.