Dưới đây, giả sử chúng tôi đang làm việc với một máy Turing băng vô hạn.
Khi giải thích khái niệm về độ phức tạp thời gian cho ai đó và lý do tại sao nó được đo tương đối với kích thước đầu vào của một thể hiện, tôi tình cờ phát hiện ra tuyên bố sau:
[..] Ví dụ, điều tự nhiên là bạn cần nhiều bước hơn để nhân hai số nguyên với 100000 bit, hơn là, nhân hai số nguyên với 3 bit.
Yêu cầu này rất thuyết phục, nhưng bằng cách nào đó vẫy tay. Trong tất cả các thuật toán tôi đã gặp, kích thước đầu vào càng lớn, bạn càng cần nhiều bước. Nói một cách chính xác hơn, độ phức tạp thời gian là một hàm tăng đơn điệu của kích thước đầu vào.
Có phải trường hợp phức tạp thời gian luôn là một hàm tăng trong kích thước đầu vào? Nếu vậy, tại sao nó là trường hợp? Có bằng chứng nào cho việc vẫy tay không?