Mạng lưới thần kinh học tập sâu sẽ chạy trên máy tính lượng tử?


15

Deep Learning (nhiều lớp mạng thần kinh nhân tạo được sử dụng trong các nhiệm vụ học máy có giám sát và không giám sát) là một công cụ cực kỳ mạnh mẽ cho nhiều tác vụ học máy khó nhất: nhận dạng hình ảnh, nhận dạng video, nhận dạng giọng nói, v.v. trong số các thuật toán học máy mạnh mẽ nhất và Điện toán lượng tử thường được coi là một công cụ thay đổi trò chơi cho một số nhiệm vụ tính toán rất khó khăn, tôi tự hỏi liệu có bất kỳ chuyển động nào khi kết hợp cả hai không.

  • Một thuật toán học sâu có thể chạy trên một máy tính lượng tử?
  • Liệu nó có ý nghĩa để thử?
  • Có các thuật toán lượng tử khác sẽ làm cho việc học sâu không liên quan?

1
Tôi không phải là chuyên gia, nhưng tôi tưởng tượng thuật toán HHL sẽ hữu ích trong bối cảnh này.
DaftWullie

Câu trả lời:


8
  1. Vâng, tất cả các thuật toán cổ điển có thể chạy trên các máy tính lượng tử, hơn nữa bất kỳ thuật toán cổ điển liên quan đến tìm kiếm có thể có được một tăng thời gian ban đầu bằng cách sử dụng thuật toán Grovers. Một ví dụ xuất hiện trong tâm trí là coi việc tinh chỉnh các tham số mạng thần kinh là một vấn đề "tìm kiếm hệ số".thời gian ban đầu

  2. Đối với thực tế, có những lợi ích tính toán rõ ràng trong một số quy trình: có.

  3. Không phải là tôi biết. Nhưng ai đó có chuyên môn hơn có thể kêu vang ở đây nếu họ muốn. Một điều xuất hiện trong đầu: thường chúng ta có thể sử dụng Deep Learning và các dạng Trí tuệ nhân tạo khác để nghiên cứu các vấn đề về hóa học và vật lý vì mô phỏng rất tốn kém hoặc không thực tế. Trong lĩnh vực này, Máy tính lượng tử có thể sẽ tàn sát tổ tiên cổ điển của họ nhờ khả năng mô phỏng hệ thống lượng tử (như hệ thống hóa học hạt nhân) trong thời gian thực hiệu quả hoặc nhanh hơn.

Lần cuối tôi nói chuyện với anh ta, Mario Szegedy đã quan tâm chính xác đến điều này, có lẽ có rất nhiều nhà nghiên cứu khác đang làm việc với nó ngay bây giờ.


6
Tôi không tin rằng thuật toán của Grover có liên quan ở đây. Thuật toán của Grover tìm thấy một đầu vào duy nhất tạo ra chính xác một đầu ra nhất định. OTOH, các mạng lưới thần kinh rất không tự nhiên và chúng cũng không thực sự chính xác - tốt nhất là chính xác không có triệu chứng.
leftaroundabout 28/03/18

Nó có thể được coi là một vấn đề tìm kiếm cơ sở dữ liệu bằng cách xem xét một vị trí siêu của tất cả các trạng thái có thể có trọng số. Hãy để hàm tìm kiếm trả về 1, nếu định mức của đạo hàm của mạng nơ ron trên một đầu vào tiêu chuẩn ghi các trọng số là ít hơn một số dung sai mong muốn.
frogeyedpeas 28/03/18

1
Điều đó sẽ hoàn toàn vô dụng. Đối với bất kỳ vấn đề không cần thiết nào, sẽ có nhiều tổ hợp trọng số mà độ dốc bằng không; ngay cả khi thuật toán của Grover cung cấp cho bạn một trong số đó, nó thường không phải là mức tối thiểu, ít hơn nhiều so với mức tối thiểu toàn cầu.
leftaroundabout

Tôi không đồng ý, xem xét giao thức sau: độ dốc vanilla giảm xuống đến một ngưỡng nào đó, sau đó áp dụng tìm kiếm của Grover trong một không gian có trọng số rất hạn chế để lấy mức tối thiểu cứng trong một số lỗi bị ràng buộc, phần cuối đó là nơi độ dốc của độ dốc thường hội tụ rất nhiều từ từ đến mức tối ưu của địa phương, và tôi trở nên tò mò nếu đó là nơi mà việc tìm kiếm Grover Search có thể thú vị
frogeyedpeas

1
Hừm, có thể làm việc; tuy nhiên ở phần cuối đó tôi chắc chắn bạn cũng có thể làm tốt hơn nhiều so với việc giảm độ dốc với các phương tiện cổ điển. Biconjugate-gradient là ứng cử viên rõ ràng.
rẽ trái

13

Đây là rất nhiều câu hỏi mở, nhưng vâng, có một số lượng đáng kể công việc đang được thực hiện trên mặt trận này.

Một số làm rõ

Trước hết, cần lưu ý rằng có hai cách chính để hợp nhất học máy (và đặc biệt là học sâu) với cơ học lượng tử / điện toán lượng tử:

Áp dụng các kỹ thuật học máy cổ điển để giải quyết các vấn đề phát sinh trong bối cảnh cơ học lượng tử / thông tin lượng tử / tính toán lượng tử . Khu vực này đang phát triển quá nhanh để tôi thậm chí thử một danh sách các tài liệu tham khảo phong nha, vì vậy tôi sẽ chỉ liên kết đến một vài tác phẩm gần đây nhất theo hướng này: vào năm 1803.04114, các tác giả đã sử dụng phương pháp học máy để tìm mạch để tính toán sự chồng chéo giữa hai trạng thái (có một số công việc khác theo cùng hướng này) và vào năm 1803.05193, các tác giả đã nghiên cứu cách mạng lưới thần kinh có thể được sử dụng để tìm ra phương án điều chỉnh lượng tử.

Nghiên cứu các thuật toán lượng tử để phân tích dữ liệu lớn , thường tìm kiếm " khái quát lượng tử " của các thuật toán học máy cổ điển. Bạn có thể xem câu trả lời khác này của tôi để có được một số tài liệu tham khảo cơ bản về chủ đề này. Cụ thể hơn đối với trường hợp học sâu , vào năm 1412.389 (có tên là Quantum Deep Learning ), các tác giả đã đề xuất một phương pháp (một cách hiệu quả, thuật toán lượng tử) để tăng tốc độ đào tạo các máy Boltzmann bị hạn chế sâu. Một tài liệu tham khảo có liên quan khác ở đây là 1712.05304 , trong đó các tác giả phát triển thuật toán lượng tử độ sâu thấp để huấn luyện các máy Boltzmann lượng tử. Xem 1708.0957, cũng như các tài liệu tham khảo trong câu trả lời được liên kết, để tìm ra nhiều tác phẩm hơn về điều này. Lưu ý rằng việc tăng tốc được yêu cầu trong các tác phẩm này có thể thay đổi một cách dữ dội, từ tăng tốc theo cấp số nhân đến đa thức.

Đôi khi, việc tăng tốc xuất phát từ việc sử dụng các thuật toán lượng tử để giải quyết các vấn đề đại số tuyến tính cụ thể (xem Bảng 1 trong ( 1707.08561 ), đôi khi nó xuất phát từ việc sử dụng (các biến thể) của tìm kiếm Grover và đôi khi từ khác điều (nhưng chủ yếu là hai điều này). Trích dẫn từ Dunjko và Briegel ở đây :

Các ý tưởng về cải tiến lượng tử cho ML có thể được phân loại thành hai nhóm: a) các cách tiếp cận dựa trên tìm kiếm và khuếch đại biên độ của Grover để có được các cách tăng tốc độ bậc hai và, b) tiếp cận mã hóa thông tin liên quan thành biên độ lượng tử và có tiềm năng cải thiện theo cấp số nhân. Nhóm phương pháp tiếp cận thứ hai có lẽ là dòng nghiên cứu phát triển nhất trong ML lượng tử và thu thập một công cụ lượng tử rất nhiều - đáng chú ý nhất là đại số tuyến tính lượng tử, được sử dụng trong các đề xuất ML lượng tử.

Trả lời trực tiếp hơn cho ba câu hỏi

Đã nói ở trên, hãy để tôi trả lời trực tiếp hơn ba điểm bạn nêu ra:

  1. Một thuật toán học sâu có thể chạy trên một máy tính lượng tử? Chắc chắn là có: nếu bạn có thể chạy một cái gì đó trên máy tính cổ điển, bạn có thể làm điều đó trên máy tính lượng tử. Tuy nhiên, câu hỏi người ta nên đặt ra là liệu thuật toán học máy lượng tử (sâu) có thể hiệu quả hơn so với các đối tác cổ điển ? Câu trả lời cho này câu hỏi là phức tạp hơn. Có thể có , có nhiều đề xuất theo hướng này, nhưng còn quá sớm để nói những gì sẽ hoặc sẽ không hoạt động.

  2. Liệu nó có ý nghĩa để thử? Đúng!

  3. Có các thuật toán lượng tử khác sẽ làm cho việc học sâu không liên quan? Điều này phụ thuộc mạnh mẽ vào những gì bạn có nghĩa là " không liên quan ". Ý tôi là, đối với những gì được biết đến vào lúc này, rất có thể có các thuật toán cổ điển sẽ làm cho việc học sâu "không liên quan".

3
Trong bối cảnh của câu trả lời này, tôi muốn đề cập đến bài báo gần đây này cho thấy thuật toán tối ưu hóa gần đúng lượng tử có thể được sử dụng để huấn luyện các mạng thần kinh (máy Boltzmann bị hạn chế) bằng cách sử dụng lấy mẫu Gibbs gần đúng trên các máy tính lượng tử phổ quát.
Đánh dấu Fingerhuth

1
@MarkFingerhuth Tôi đã thêm nó vào câu trả lời, cảm ơn con trỏ (và chào mừng bạn đến với trang web!)
glS

2

Đây là một phát triển mới nhất từ ​​Xanadu, một mạch lượng tử quang tử bắt chước một mạng lưới thần kinh. Đây là một ví dụ về mạng thần kinh chạy trên máy tính lượng tử.

Mạch quang tử này chứa các giao thoa kế và các cổng nén bắt chước các chức năng cân của NN, một cổng dịch chuyển đóng vai trò sai lệch và biến đổi phi tuyến tính tương tự như chức năng ReLU của NN.

Họ cũng đã sử dụng mạch này để đào tạo mạng để tạo ra các trạng thái lượng tử và cũng thực hiện các cổng lượng tử.

Dưới đây là ấn phẩm của họ được sử dụng để đào tạo mạch . Đây là một bài báo trung bình giải thích mạch của họ.


2

Tất cả các câu trả lời ở đây dường như đang bỏ qua một giới hạn thực tế cơ bản:

Deep Learning đặc biệt hoạt động tốt nhất với dữ liệu lớn. MNIST là 60000 hình ảnh, ImageNet là 14 triệu hình ảnh.

Trong khi đó, các máy tính lượng tử lớn nhất hiện nay có 50 ~ 72 Qbit.

Ngay cả trong các kịch bản lạc quan nhất, các máy tính lượng tử có thể xử lý khối lượng dữ liệu sẽ yêu cầu thuật toán Deep Learning thay vì các phương pháp mô hình truyền thống sẽ không xuất hiện sớm.

Vì vậy, áp dụng QC vào Deep Learning có thể là một sự tò mò lý thuyết tốt đẹp, nhưng không phải là điều gì đó sẽ sớm trở thành hiện thực.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.