Theo như tôi biết, hầu hết các triển khai tạo số giả ngẫu nhiên trong thực tế đều sử dụng các phương pháp như các thanh ghi phản hồi dịch chuyển tuyến tính (LSFR) hoặc các thuật toán "Mersenne Twister" này. Mặc dù họ vượt qua rất nhiều bài kiểm tra thống kê (heuristic), nhưng không có gì đảm bảo về mặt lý thuyết rằng họ trông giống giả, tất cả, đều là những bài kiểm tra thống kê có thể tính toán hiệu quả. Tuy nhiên, các phương pháp này được sử dụng một cách bừa bãi trong tất cả các loại ứng dụng, từ các giao thức mã hóa đến máy tính khoa học đến ngân hàng (có thể). Tôi thấy hơi đáng lo ngại khi chúng ta có ít hoặc không đảm bảo về việc liệu các ứng dụng này có hoạt động như dự định hay không (bởi vì bất kỳ loại phân tích nào cũng có thể giả định tính ngẫu nhiên thực sự là đầu vào).
Mặt khác, lý thuyết phức tạp và mật mã học cung cấp một lý thuyết rất giả về tính giả danh, và chúng tôi thậm chí còn có các cấu trúc ứng cử của các trình tạo giả ngẫu nhiên để đánh lừa BẤT K test bài kiểm tra thống kê hiệu quả nào bạn có thể đưa ra, sử dụng các hàm ứng cử viên một cách.
Câu hỏi của tôi là: lý thuyết này đã đi vào thực tiễn chưa? Tôi hy vọng rằng đối với việc sử dụng ngẫu nhiên quan trọng, như mật mã hoặc điện toán khoa học, PRGs về mặt lý thuyết được sử dụng.
Bên cạnh đó, tôi có thể tìm thấy một số phân tích hạn chế về các thuật toán phổ biến như quicksort hoạt động như thế nào khi sử dụng LSFR như một nguồn ngẫu nhiên, và rõ ràng chúng hoạt động tốt. Xem "Thuật toán ngẫu nhiên và số giả ngẫu nhiên" của Karloff và Raghavan .