Giả sử chúng ta đang ở trong một không gian xác suất riêng biệt sao cho . Theo trực giác, bạn cần một số hàm để bạn có thể tối ưu hóa . Bạn chỉ có thể tối ưu hóa một mục tiêu duy nhất! U : R n → R U ( f ( x ) )f(x)∈RnU:Rn→RU(f(x))
Tối ưu hóa một chức năng mục tiêu duy nhất nghe có vẻ khá hạn chế, nhưng thực tế không phải vậy! Thay vào đó, một mục tiêu duy nhất có thể đại diện cho các sở thích vô cùng đa dạng mà bạn có thể có về giải pháp tốt hơn hoặc xấu hơn.
Bỏ qua phía trước, một nơi đơn giản để bắt đầu có thể là chọn một biến ngẫu nhiên sau đó giải quyết:λ
E[f(x)]
minimize (over x)subject toE[λf(x)]x∈X
Đây là trọng số lại tuyến tính đơn giản của . Dù sao, đây là một lập luận cho lý do tại sao thu gọn nhiều mục tiêu vào một mục tiêu duy nhất thường ổn.
E[f(x)]
Thiết lập cơ bản:
- Bạn có một biến lựa chọn và một bộ khả thi .XxX
- Sự lựa chọn của bạn dẫn đến một kết quả ngẫu nhiên˜ y = f ( x )xy~=f(x)
- Bạn có sở thích hợp lý trước kết quả ngẫu nhiên. (Về cơ bản, bạn có thể nói liệu bạn có thích một kết quả ngẫu nhiên cho kết quả khác hay không.)˜ y≺y~
Vấn đề của bạn là chọn sao cho:x∗∈X
∄x∈Xf(x∗)≺f(x)
Trong tiếng Anh, bạn wan để chọn để không lựa chọn khả thi dẫn đến một kết quả ưa thích để .
x∗xf(x∗)
Tương đương với tối đa hóa tiện ích (trong các điều kiện kỹ thuật nhất định)
Để đơn giản về mặt kỹ thuật, tôi sẽ nói rằng chúng ta đang ở trong một không gian xác suất riêng biệt với kết quả để tôi có thể biểu thị kết quả ngẫu nhiên với một vectơ .ny~y∈Rn
Trong một số điều kiện kỹ thuật nhất định (không giới hạn theo nghĩa thực tế), vấn đề trên tương đương với tối đa hóa hàm tiện ích . (Hàm tiện ích gán kết quả ưu tiên nhiều hơn với số lượng cao hơn.)U(y)
Logic này sẽ áp dụng cho bất kỳ vấn đề nào trong đó lựa chọn của bạn dẫn đến nhiều biến kết quả.
maximize (over x)subject toU(f(x))x∈X
Cung cấp thêm cấu trúc cho chức năng tiện ích : Giả thuyết tiện ích dự kiến :U
Nếu chúng ta đang ở trong một môi trường xác suất và chúng ta chấp nhận các tiên đề Neumann-Morgernstern , thì hàm tiện ích tổng thể phải có một dạng đặc biệt:U
U(y)=E[u(yi)]=∑ipiu(yi)
Trong đó là xác suất của trạng thái và là hàm tiện ích lõm. Độ cong của đo lường ác cảm rủi ro. Đơn giản chỉ cần thay thế hình thức chuyên dụng này của bạn nhận được:
piiuuU
maximize (over x)subject to∑ipiu(yi)x∈Xy=f(x)
Quan sát rằng trường hợp đơn giản đang tối đa hóa giá trị mong đợi (nghĩa là không có ác cảm rủi ro).u(yi)=yi
Một cách tiếp cận khác: trọng lượngλ
Một điều cần làm là:
maximize (over x)subject to∑iλiyix∈Xy=f(x)
Theo trực giác, bạn có thể chọn trọng số lớn hơn hoặc nhỏ hơn xác suất của trạng thái xảy ra và điều này cho thấy tầm quan trọng của trạng thái.p iλipi
Sự biện minh sâu sắc hơn của phương pháp này là trong các điều kiện kỹ thuật nhất định, tồn tại lambda trọng số sao cho vấn đề trên và các vấn đề trước đó (ví dụ: tối đa hóa ) có cùng một giải pháp.U ( f ( x ) )λU(f(x))