Tôi đang đọc bằng chứng từ đây và tôi vấp phải một vấn đề kỹ thuật (nhưng rất quan trọng). Tôi biết điều này khá cụ thể và bối cảnh có vấn đề, nhưng tôi không thể tự mình tìm ra.
Trong trang 51 và 55, sau khi trình bày các trình xác minh "tiêu chuẩn", họ chuyển sang sửa đổi các trình xác minh để kiểm tra các bài tập phân chia.
Trong trường hợp đầu tiên (tr. 51), họ kiểm tra xem có phải là cho mã đa thức hay không, sau đó họ sử dụng Đại số (+ Zero-Testers) để xây dựng một họ đa thức (có Sum- Kiểm tra thuộc tính liên quan đến công thức nhập) rằng mỗi giá trị có thể được ước tính tại một điểm đã cho 3 giá trị của mỗi (từ mã của tủ mã đa thức cho ).
Trong trường hợp thứ hai (tr. 55), họ kiểm tra xem có phải là tuyến tính và sau đó họ xác định hàm là một tổng đặc biệt của sao cho có thể được đánh giá tại một điểm cho các giá trị của từng (hàm hàm tuyến tính thành ).
Sau đó, trong cả hai trường hợp, họ thực hiện các thử nghiệm (Sum-Check hoặc Tensor + Hadamard) về các giá trị của một đa thức ngẫu nhiên trong gia đình / .
Vấn đề của tôi là quy trình xây dựng lại các giá trị bắt buộc của từng có thể cung cấp các giá trị không chính xác với một số xác suất không đổi không đáng kể . Hơn nữa, xác suất tất cả các giá trị được xây dựng lại chính xác là rất thấp, chỉ cho một số hằng số . Và điều này đúng cho cả hai trường hợp.
Điều này có thể xấu vì một số bước của trình xác minh yêu cầu để có được các giá trị của hàm mục tiêu / một đa thức từ gia đình whp
Vì vậy, chúng ta cần khuếch đại xác suất thành công bằng cách liên tục sử dụng "thủ tục đại số tái cấu trúc" một số lần cho mỗi .
Bây giờ, điều này có nghĩa là độ nổ trong độ phức tạp truy vấn của thường trình con (tương đối với độ phức tạp truy vấn của trình xác minh gốc) lớn hơn một chút so với , tức là nó là (trái ngược với "Đảm bảo" - "mong muốn" blowup trong phát biểu của các định lý).
Đây có phải là một vấn đề hoặc tôi đang thiếu một cái gì đó (mà tôi có thể là)?