Câu trả lời dài:
Hãy mô hình hóa luồng thông tin từ IIR "ẩn" của bạn X đến đầu ra quan sát của bạn Y như
X⟶Y
Sau đó, chúng tôi gọi lượng thông tin bạn nhận được cho mỗi lần quan sát là * thông tin lẫn nhau I(X;Y); thông tin đó là giảm sự không chắc chắn vềX để đạt được bằng cách quan sát Y.
Chúng tôi gọi sự không chắc chắn dự kiến của một cái gì đó là entropy , trong trường hợp của bạn, sự không chắc chắn vềX là entropy của nó và thường được ký hiệu là H(X).
Bây giờ, điều tốt đẹp và về tất cả điều này là H(X|Y), tức là "sự không chắc chắn về X vẫn còn khi bạn biết Y", thực sự chỉ là entropy của X trừ thông tin bạn nhận được, vì vậy:
H( X| Y) = H( X) - Tôi( X; Y) .(1)
Mục tiêu của kẻ tấn công là giảm bớt sự không chắc chắn mà anh ta vẫn có X đến 0.
Bây giờ, vì bất kỳ tín hiệu nào "kích thích" tất cả các hàm riêng của một hệ thống đều có thể mô tả đầy đủ hệ thống, điều đó có nghĩa là chúng ta chỉ cần gửi toàn bộ các hàm riêng thông qua IIR của bạn. Và vì IIR của bạn là một hệ thống LTI, nên đó chỉ là vectơ chứa tất cả các dao động của bất kỳ tần số đại diện nào.
Bạn có thể giảm lượng thông tin mà kẻ tấn công có thể nhận được về hệ thống của bạn bằng cách chèn tiếng ồn giả tạo. Thông tin lý thuyết, điều này làm tăng sự không liên quan của bạnH( Y| X) (ngay cả khi bạn biết X, bạn sẽ không biết 100% Y, bởi vì tiếng ồn được thêm vào).
Các thông tin lẫn nhau Tôi( X; Y) như được sử dụng trong (1) là đối xứng, tức là Tôi( X; Y) = Tôi( Y; X); do đó sau
H( Y| X)H( X| Y)= H( Y) - Tôi( X; Y)= =(1)H( Y) - ( H( X) - H( X| Y) )= H( Y) - H( X) + H( X| Y)= H( Y| X) + H( X) - H( Y)(2)
Mục tiêu của bạn là ngăn chặn một kỹ sư đảo ngược, tức là tối đa hóa H( X| Y).
Từ H( X) đã được sửa (bạn đã có một số hệ số có thể nhận một số giá trị, do đó, đó là một số lượng bit), cách duy nhất để điều chỉnh hàm mục tiêu này là tăng H( Y| X). Và cách duy nhất để làm như vậy là bằng cách chèn các biến thể thực sự ngẫu nhiên trong đầu ra của bạn.