Mạng lưới thần kinh được sử dụng rộng rãi trong học tập không giám sát để tìm hiểu các biểu diễn tốt hơn của dữ liệu đầu vào. Ví dụ, được cung cấp một tập hợp các tài liệu văn bản, NN có thể tìm hiểu ánh xạ từ tài liệu sang vectơ có giá trị thực theo cách các vectơ kết quả tương tự đối với các tài liệu có nội dung tương tự, tức là giữ khoảng cách. Điều này có thể đạt được bằng cách sử dụng, ví dụ, bộ mã hóa tự động - một mô hình được đào tạo để tái tạo lại vectơ gốc từ một biểu diễn nhỏ hơn (kích hoạt lớp ẩn) với lỗi tái tạo (khoảng cách từ hàm ID) làm hàm chi phí. Quá trình này không cung cấp cho bạn các cụm, nhưng nó tạo ra các biểu diễn có ý nghĩa có thể được sử dụng để phân cụm. Ví dụ, bạn có thể chạy thuật toán phân cụm trên các kích hoạt của lớp ẩn.
Phân cụm: Có một số kiến trúc NN khác nhau được thiết kế đặc biệt để phân cụm. Được biết đến rộng rãi nhất có lẽ là tự tổ chức bản đồ. SOM là một NN có một tập hợp các nơ-ron được kết nối để tạo thành một mạng lưới tôpô (thường là hình chữ nhật). Khi một số mẫu được trình bày cho SOM, nơ ron có vectơ trọng lượng gần nhất được coi là người chiến thắng và trọng lượng của nó được điều chỉnh theo mẫu, cũng như các trọng số của vùng lân cận. Theo cách này, một SOM tự nhiên tìm thấy các cụm dữ liệu. Một thuật toán hơi liên quan đang phát triển khí thần kinh (nó không giới hạn số lượng tế bào thần kinh được xác định trước).
Một cách tiếp cận khác là Lý thuyết cộng hưởng thích ứng trong đó chúng ta có hai lớp: "trường so sánh" và "trường nhận biết". Trường nhận biết cũng xác định kết quả khớp tốt nhất (nơ ron) với vectơ được truyền từ trường so sánh và cũng có các kết nối ức chế bên. Chi tiết triển khai và các phương trình chính xác có thể dễ dàng tìm thấy bằng cách googling tên của các mô hình này, vì vậy tôi sẽ không đặt chúng ở đây.