Câu hỏi được gắn thẻ «k-nearest-neighbour»

k-Các phân loại hàng xóm gần nhất Các phân loại này dựa trên bộ nhớ và không yêu cầu phải có mô hình nào phù hợp. Cho một điểm truy vấn x0, chúng tôi tìm thấy k điểm đào tạo x (r), r = 1, ..., k gần nhất với khoảng cách x0, và sau đó phân loại bằng cách sử dụng phiếu bầu đa số giữa các hàng xóm k.

1
Kernelised k Hàng xóm gần nhất
Tôi mới sử dụng hạt nhân và đã gặp khó khăn trong khi cố gắng nhân kernel kNN. Sơ bộ Tôi đang sử dụng hạt nhân đa thức: K(x,y)=(1+⟨x,y⟩)dK(x,y)=(1+⟨x,y⟩)dK(\mathbf{x},\mathbf{y}) = (1 + \langle \mathbf{x},\mathbf{y} \rangle)^d KNN Euclid điển hình của bạn sử dụng số liệu khoảng cách sau: d(x,y)=||x−y||d(x,y)=||x−y||d(\mathbf{x}, \mathbf{y}) …



1
Ưu điểm của Jeffries Matusita khoảng cách
Theo một số bài báo tôi đang đọc, khoảng cách Jeffries và Matusita thường được sử dụng. Nhưng tôi không thể tìm thấy nhiều thông tin về nó ngoại trừ công thức dưới đây JMD (x, y) =∑(xi−−√2−yi−−√2)2−−−−−−−−−−−−−√2∑(xi2−yi2)22\sqrt[2]{\sum(\sqrt[2]{x_i}-\sqrt[2]{y_i})^2} Nó tương tự như khoảng cách Euclide ngoại trừ căn bậc hai …







1
Giúp hiểu kNN cho dữ liệu đa chiều
Tôi hiểu tiền đề của thuật toán kNN cho dữ liệu không gian. Và tôi biết rằng tôi có thể mở rộng thuật toán đó để sử dụng trên bất kỳ biến dữ liệu liên tục nào (hoặc dữ liệu danh nghĩa với Hamming Khoảng cách). Tuy nhiên, chiến lược …


3
KNN: 1-láng giềng gần nhất
Câu hỏi của tôi là về phân loại hàng xóm gần nhất và là về một tuyên bố được đưa ra trong cuốn sách xuất sắc The Elements of Statistics Learning, của Hastie, Tibshirani và Friedman. Tuyên bố là (trang 465, phần 13.3): "Bởi vì nó chỉ sử dụng điểm …



Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.