Các thuật toán gần đúng chỉ dành cho các vấn đề tối ưu hóa, không phải cho các vấn đề quyết định.
Tại sao chúng ta không định nghĩa tỷ lệ gần đúng là một phần sai lầm của thuật toán, khi cố gắng giải quyết một số vấn đề quyết định? Bởi vì "tỷ lệ gần đúng" là một thuật ngữ có nghĩa chuẩn, được xác định rõ, một nghĩa có nghĩa khác và sẽ khó hiểu khi sử dụng cùng một thuật ngữ cho hai điều khác nhau.
OK, chúng ta có thể định nghĩa một số tỷ lệ khác (hãy gọi nó là một tỷ lệ khác - ví dụ: "tỷ lệ det") định lượng số lượng lỗi mà thuật toán gây ra, cho một số vấn đề quyết định? Chà, không rõ làm thế nào để làm điều đó. Điều gì sẽ là mẫu số cho phân số đó? Hoặc, nói một cách khác: sẽ có vô số trường hợp vấn đề và đối với một số trong số đó, thuật toán sẽ đưa ra câu trả lời đúng và một số khác thì nó sẽ trả lời sai, vì vậy bạn kết thúc với một tỷ lệ "Một cái gì đó chia cho vô cùng", và cuối cùng là vô nghĩa hoặc không được xác định.
Ngoài ra, chúng ta có thể định nghĩa là một phần sai lầm của các lỗi thuật toán, trong các trường hợp vấn đề có kích thước . Sau đó, chúng ta có thể tính giới hạn của là , nếu giới hạn đó tồn tại. Điều này sẽ được xác định rõ (nếu giới hạn tồn tại). Tuy nhiên, trong hầu hết các trường hợp, điều này có thể không hữu ích lắm. Cụ thể, nó mặc nhiên thừa nhận một phân phối thống nhất trong các trường hợp vấn đề. Tuy nhiên, trong thế giới thực, phân phối thực tế trong các trường hợp sự cố có thể không đồng nhất - nó thường rất xa so với đồng phục. Do đó, số bạn nhận được theo cách này thường không hữu ích như bạn có thể hy vọng: nó thường mang lại ấn tượng sai lệch về mức độ tốt của thuật toán. n r n n → ∞rnnrnn → ∞
Để tìm hiểu thêm về cách mọi người đối phó với độ hấp dẫn (độ cứng NP), hãy xem Xử lý sự khó hiểu: Các vấn đề hoàn chỉnh NP .