Các lớp phức tạp trông như thế nào, nếu chúng ta sử dụng giảm Turing?


10

Để suy luận về những thứ như tính đầy đủ của NP, chúng tôi thường sử dụng các mức giảm nhiều người (nghĩa là giảm Karp). Điều này dẫn đến hình ảnh như thế này:

(theo phỏng đoán tiêu chuẩn). Tôi chắc rằng tất cả chúng ta đều quen thuộc với loại điều này.

Hình ảnh nào chúng ta có được, nếu chúng ta làm việc với các mức giảm Turing (nghĩa là giảm Cook)? Làm thế nào để hình ảnh thay đổi?

PNPNPcoNPPNPNP

PPNPPHPSPACE

C0=PC1=PNPC2=?PHPNP


Liên quan: Giảm nhiều một so với giảm Turing để xác định NPC . Bài báo đó giải thích rằng lý do chúng tôi làm việc với việc giảm Karp là vì nó mang lại cho chúng tôi một hệ thống phân cấp chính xác hơn, phong phú hơn, chính xác hơn. Về cơ bản, tôi tự hỏi hệ thống phân cấp sẽ trông như thế nào nếu chúng ta làm việc với các giảm Turing: hệ thống phân cấp thô hơn, kém phong phú hơn, kém chính xác hơn sẽ như thế nào.



từ câu hỏi đó, ví dụ: "chúng được phỏng đoán là các khái niệm riêng biệt. sự khác biệt giữa coNP và NP biến mất khi giảm Turing." cũng lưu ý coNP NP (được phỏng đoán rộng rãi) ngụ ý P ≠ NP (P được đóng dưới bổ sung). Vì vậy, nó gắn liền với một số câu hỏi lý thuyết phức tạp mở sâu.
vzn

Cảm ơn, @Raphael, tôi đã xem xét tất cả những điều đó và tôi không nghĩ họ trả lời bất kỳ câu hỏi nào của tôi.
DW

Câu trả lời:


4

PΣiPiPΔiPiP

PΣiPNPΣiP=Σi+1PPΣi+1P
PPH=i0PΣiP=i0ΣiP=PH

Nếu hệ thống phân cấp đa thức không sụp đổ, tất cả các vùi đều nghiêm ngặt.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.