Giả sử chúng ta có biểu diễn vectơ của bất kỳ số nguyên nào có độ lớn n, V_n
Vector này là đầu vào cho một thuật toán học máy.
Câu hỏi đầu tiên: Đối với loại biểu diễn nào có thể tìm hiểu tính nguyên thủy / tính tổng hợp của n bằng cách sử dụng mạng thần kinh hoặc một số ánh xạ ML-bit-bit khác. Đây hoàn toàn là lý thuyết - mạng lưới thần kinh có thể không bị giới hạn về kích thước.
Chúng ta hãy bỏ qua các đại diện đã liên quan đến thử nghiệm nguyên thủy, chẳng hạn như: danh sách các yếu tố được phân tách bằng null hoặc sự tồn tại của một nhân chứng phức tạp như trong Miller Rabin. Thay vào đó, hãy tập trung vào các biểu diễn trong các radice khác nhau, hoặc các biểu diễn dưới dạng vectơ hệ số của đa thức (có thể là đa biến). Hoặc những người kỳ lạ khác như được đặt ra.
Câu hỏi thứ hai: đối với những gì, nếu có, các loại thuật toán ML sẽ học được điều này là không thể, bất kể cụ thể của vectơ biểu diễn là gì? Một lần nữa, chúng ta hãy bỏ qua các đại diện 'bị cấm bởi tầm thường' trong đó các ví dụ được đưa ra ở trên.
Đầu ra của thuật toán học máy là một bit đơn, 0 cho số nguyên tố, 1 cho tổng hợp.
Tiêu đề của câu hỏi này phản ánh đánh giá của tôi rằng sự đồng thuận cho câu hỏi 1 là 'không xác định' và sự đồng thuận cho câu hỏi 2 là 'có lẽ hầu hết các thuật toán ML'. Tôi đang hỏi điều này vì tôi không biết gì hơn điều này và tôi hy vọng ai đó có thể chỉ đường.
Động lực chính, nếu có một, của câu hỏi này là: có giới hạn "lý thuyết thông tin" đối với cấu trúc của tập hợp các số nguyên tố có thể được nắm bắt trong một mạng lưới thần kinh có kích thước cụ thể không? Vì tôi không phải là chuyên gia về loại thuật ngữ này, hãy để tôi nói lại ý tưởng này một vài lần và xem liệu tôi có nhận được một xấp xỉ Monte-Carlo cho khái niệm này không: độ phức tạp thuật toán của tập hợp các số nguyên tố là gì? Có thể sử dụng các số nguyên tố là Diophantine đệ quy đệ quy (và có thể đáp ứng một phương trình diophantine lớn cụ thể ) để nắm bắt cấu trúc tương tự trong một mạng lưới thần kinh với các đầu vào và đầu ra được mô tả ở trên.