Là mạng lưới thần kinh dễ bị lãng quên?


38

Hãy tưởng tượng bạn hiển thị một mạng lưới thần kinh một hình ảnh của một con sư tử 100 lần và gắn nhãn "nguy hiểm", vì vậy nó học được rằng sư tử rất nguy hiểm.

Bây giờ hãy tưởng tượng rằng trước đây bạn đã cho nó xem hàng triệu hình ảnh của sư tử và thay vào đó được gắn nhãn là "nguy hiểm" và "không nguy hiểm", như vậy xác suất sư tử bị nguy hiểm là 50%.

Nhưng 100 lần cuối cùng đã đẩy mạng lưới thần kinh trở nên rất tích cực về việc sư tử là "nguy hiểm", do đó bỏ qua hàng triệu bài học cuối cùng.

Do đó, dường như có một lỗ hổng trong mạng lưới thần kinh, ở chỗ họ có thể thay đổi suy nghĩ quá nhanh dựa trên bằng chứng gần đây. Đặc biệt là nếu bằng chứng trước đó là ở giữa.

Có một mô hình mạng lưới thần kinh theo dõi bao nhiêu bằng chứng nó đã thấy? (Hoặc điều này sẽ tương đương với việc để tỷ lệ học tập giảm 1/T trong đó T là số lượng thử nghiệm?)


Tôi đang nói về việc học có giám sát nơi người dùng nói với NN rằng sư tử rất nguy hiểm.
sở thú

Điều này cũng xảy ra với mọi người. Thật đáng sợ khi người ta có thể "không học" dễ dàng rằng một thứ gì đó nguy hiểm sau khi thực hiện nó nhiều lần mà không có hậu quả, tương đương với kịch bản bạn đã mô tả với AI.
Tomáš Zato

2
Được gắn cờ là quá rộng. Đây là cách quá phụ thuộc vào những kỹ thuật nhận dạng đang được sử dụng bởi mạng. Rõ ràng, chắc chắn, trong một số trường hợp, mạng sẽ "quên" nhưng trong những trường hợp khác thì không. Cần phải cực kỳ rõ ràng rằng bất kỳ câu trả lời cho câu hỏi này nên bắt đầu và kết thúc bằng "Nó phụ thuộc".
8protons

3
Công bằng mà nói, đây là một trong những giao dịch kiểu "chọn độc của bạn". Một NN ủng hộ những trải nghiệm gần đây hơn những trải nghiệm lịch sử có xu hướng bỏ qua quá khứ, nhưng nó có thể đáp ứng với những phát triển gần đây. Ví dụ: giả sử tất cả các con sư tử đột nhiên biến mankiller qua đêm, thì NN của bạn ưa thích những trải nghiệm gần đây sẽ nhanh hơn rất nhiều trong việc đón nhận mối đe dọa mới, trái ngược với NN chậm chạp mà nói rằng "sư tử luôn không nguy hiểm trong quá khứ, tôi kết luận rằng không có gì mới xảy ra "cho đến khi sư tử nguy hiểm 100% lâu hơn bạn muốn (và nhiều cái chết của con người sau này)
Flater

1
Ngoài ra, AGI sẽ có trọng số lỗi liên quan - kết quả là hai lỗi không tệ như nhau.
MSalters

Câu trả lời:


39

Vâng, thực sự, các mạng lưới thần kinh rất dễ bị lãng quên (hoặc can thiệp) . Hiện tại, vấn đề này thường bị bỏ qua vì các mạng thần kinh chủ yếu được đào tạo ngoại tuyến (đôi khi được gọi là đào tạo theo đợt ), trong đó vấn đề này không thường xuyên phát sinh và không trực tuyến hoặc tăng dần , là nền tảng cho sự phát triển của trí tuệ nhân tạo nói chung .

Có một số người làm việc liên tục trong học tập suốt đời trong các mạng thần kinh, họ cố gắng thích ứng mạng lưới thần kinh với việc học liên tục suốt đời, đó là khả năng của một mô hình học hỏi từ một luồng dữ liệu liên tục, để họ không hoàn toàn quên đi việc có được trước đó kiến thức trong khi học thông tin mới. Xem, ví dụ, bài báo Học liên tục suốt đời với mạng lưới thần kinh: Một đánh giá (2019), của người Đức I. Parisi, Ronald Kemker, Jose L. Part, Christopher Kanan, Stefan Wermter, tóm tắt các vấn đề và giải pháp hiện có liên quan đến thảm họa quên mạng lưới thần kinh.


1
Cảm ơn! Tôi sẽ có một bài đọc của bài báo mà bạn đề nghị.
sở thú

7
Có phải tham nhũng khét tiếng của chatbot "Tay" của Microsoft là một ví dụ về sự lãng quên thảm khốc?
Không có

4
@TKK Tôi nghĩ đây sẽ là một câu hỏi mới hay trên trang web!
nbro

2
@TKK Bạn có hỏi nó không? Nếu không, người khác có thể làm như vậy? Tôi thực sự muốn biết câu trả lời.
wizzwizz4

2
Tôi khá chắc chắn rằng cụm từ "Có một số người làm việc liên tục trong học tập mạng lưới thần kinh, họ cố gắng thích ứng mạng lưới thần kinh với việc học tập suốt đời liên tục" được viết bởi một mạng lưới thần kinh.
Moyli

16

Vâng, vấn đề của quên các ví dụ đào tạo cũ là một đặc điểm của Mạng lưới thần kinh. Mặc dù vậy, tôi sẽ không gọi đó là "lỗ hổng" vì nó giúp họ thích nghi hơn và cho phép các ứng dụng thú vị như học chuyển (nếu một mạng nhớ quá trình đào tạo cũ quá tốt, việc tinh chỉnh nó thành dữ liệu mới sẽ là vô nghĩa).

Trong thực tế những gì bạn muốn làm là trộn các ví dụ đào tạo cho nguy hiểm không nguy hiểm để nó không nhìn thấy một loại ở đầu và một ở cuối.

Một quy trình đào tạo tiêu chuẩn sẽ hoạt động như thế này:

for e in epochs:
    shuffle dataset
    for x_batch, y_batch in dataset:
        train neural_network on x_batxh, y_batch

Lưu ý rằng việc xáo trộn ở mỗi kỷ nguyên đảm bảo rằng mạng sẽ không nhìn thấy các ví dụ đào tạo giống nhau theo cùng thứ tự mỗi kỷ nguyên và các lớp sẽ được trộn lẫn

Bây giờ để trả lời câu hỏi của bạn, có, việc giảm tốc độ học tập sẽ khiến mạng ít bị quên việc đào tạo trước đó, nhưng làm thế nào điều này sẽ hoạt động trong một môi trường không trực tuyến? Để một mạng hội tụ, nó cần nhiều kỷ nguyên đào tạo (nghĩa là nhìn thấy từng mẫu trong bộ dữ liệu nhiều lần).


4

Những gì bạn đang mô tả âm thanh như nó có thể là một trường hợp cố ý tinh chỉnh .

Có một giả định cơ bản làm cho độ dốc giảm dần minatchatch hoạt động cho các vấn đề học tập: Giả định rằng bất kỳ lô hoặc cửa sổ tạm thời nào của các lô liên tiếp đều tạo thành một xấp xỉ tốt của toàn cầu thựcđộ dốc của hàm lỗi đối với bất kỳ tham số hóa nào của mô hình. Nếu bản thân bề mặt lỗi đang di chuyển theo một cách lớn, điều đó sẽ cản trở các mục đích của việc giảm độ dốc - vì độ dốc là một thuật toán sàng lọc cục bộ, tất cả các cược sẽ bị tắt khi bạn đột nhiên thay đổi phân phối cơ bản. Trong ví dụ bạn đã trích dẫn, việc quên thảm khốc có vẻ như đó sẽ là hậu quả của việc "quên" các điểm dữ liệu đã thấy trước đây và là một triệu chứng của phân phối đã thay đổi hoặc biểu hiện dưới mức dữ liệu của một số hiện tượng quan trọng , như vậy nó hiếm khi được nhìn thấy liên quan đến tầm quan trọng của nó.

Kinh nghiệm phát lại từ học tập củng cố là một khái niệm có liên quan chuyển giao tốt cho miền này. Dưới đây là một bài viết khám phá khái niệm này liên quan đến quên lãng thảm khốc. Miễn là lấy mẫu đại diện cho độ dốc thực sự đủ tốt (nhìn vào cân bằng mẫu đào tạo cho điều này) và mô hình có đủ các tham số, vấn đề quên thảm khốc là không thể xảy ra. Trong các bộ dữ liệu được xáo trộn ngẫu nhiên với sự thay thế, rất có thể xảy ra khi các điểm dữ liệu của một lớp cụ thể rất hiếm khi chúng không được đưa vào trong một thời gian dài trong quá trình đào tạo, điều chỉnh hiệu quả mô hình cho một vấn đề khác cho đến khi một mẫu phù hợp được nhìn thấy một lần nữa.


1

Để trả lời câu hỏi của bạn, tôi muốn nói: Có thể trên lý thuyết, nhưng không phải trong thực tế.


Vấn đề là bạn chỉ xem xét đào tạo theo trình tự thời gian / tuần tự.

Chỉ một lần tôi đã sử dụng phương pháp đào tạo tuần tự như vậy được gọi là đào tạo trực tuyến hoặc Học máy trực tuyến . Đó là sử dụng thư viện woppal wợi . Đây là một tính năng (không phải là vấn đề như bạn nghĩ) của thư viện này để thích ứng theo trình tự thời gian với đầu vào mà nó được cung cấp.

Tôi nhấn mạnh : trong trường hợp thư viện đó là Woppal Wợi, đó là một tính năng để điều chỉnh theo trình tự thời gian. Người ta muốn rằng khi bạn bắt đầu chỉ nói với anh ta rằng sư tử là nguy hiểm, thì nó sẽ thích nghi.


Nhưng trong tất cả các trường hợp khác từ các bài tập khóa học, đến các cuộc thi kaggle, tôi đã sử dụng một tập hợp con ngẫu nhiên của dữ liệu đầu vào của mình làm tập huấn luyện. Và điều này thực sự quan trọng :

Đây là một phần quan trọng của Machine Learning được gọi là Xác thực chéo . Đó là cách để ước tính Mạng lưới thần kinh được đào tạo thực sự tốt như thế nào.

Vì vậy, để có ước tính tốt về tính hợp lệ của Mạng thần kinh của bạn, bạn lấy một tập hợp con ngẫu nhiên của dữ liệu đào tạo của mình, tóm lại, bạn lấy khoảng 80% dữ liệu của mình để đào tạo và 20% còn lại bạn đánh giá mức độ thường xuyên Mạng lưới thần kinh được đào tạo đưa ra dự đoán tốt.

Và người ta cũng không thể đơn giản biến mất mà không có Xác thực chéo, vì cần phải phát hiện Quá mức (đó là một mối quan tâm khác).

Có vẻ như bạn thích một vấn đề lý thuyết có thể xảy ra, nhưng tôi có xu hướng nói rằng việc sử dụng các phương pháp xác thực chéo hiện tại làm cho mối quan tâm của bạn không liên quan.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.