Những phương pháp học máy chung nào đang cố gắng "học" hoặc nội suy một hàm đa biến trơn tru và thực sự chọn những điểm mà hàm đó được đánh giá trong quá trình học (khám phá)?
Ý tưởng là mỗi đánh giá chức năng ít nhiều tốn kém và thuật toán học để khám phá các vùng không gian nơi thu được kiến thức là lớn nhất (so với chi phí đánh giá chức năng). Hàm này có thể không phân tích (ví dụ với kinks) trong các trường hợp thú vị nhất.
Nền tảng của tôi là vật lý và tôi chắc chắn rằng các phương pháp như vậy tồn tại, nhưng mặc dù có một số tìm kiếm tôi không thể tìm thấy thứ gì đó có liên quan trực tiếp, có thể vì tôi không biết các thuật ngữ phù hợp để tìm kiếm. Tôi chỉ biết rằng nói rộng hơn 'học tăng cường' là lĩnh vực AI đối phó với khám phá và phần thưởng, vì vậy có lẽ các phương pháp tôi đang yêu cầu đại diện cho một số trường hợp đặc biệt về điều đó.
Để làm rõ, đây là một ví dụ: Bạn có thể muốn lấy sơ đồ pha của một chất, nghĩa là mật độ là hàm của áp suất p và nhiệt độ T. Vì vậy, chúng ta đang xử lý một hàm (hầu hết) trơn tru của hai biến (p, T). Đánh giá của nó tại bất kỳ điểm nào (p, T) yêu cầu một mô phỏng Monte-Carlo đắt tiền (rất nhiều thời gian của CPU; mức độ thậm chí phụ thuộc vào vị trí của bạn trong không gian p, T). Thuật toán lý tưởng sẽ chọn các điểm (p, T) một cách thận trọng để đánh giá mật độ, cố gắng đi tới các khu vực nơi hàm có các tính năng nổi bật nhất (ví dụ: các đường chuyển pha, tức là không phân tích). Sau đó, khi bạn hỏi thuật toán về mật độ tại bất kỳ điểm nào khác (p, T), nó sẽ cung cấp phép nội suy / ngoại suy tốt nhất có thể đưa ra, với tất cả thông tin mà nó có được trong giai đoạn khám phá của nó.