Cách chính xác nhất về thông tin / vật lý-lý thuyết để tính toán entropy của hình ảnh là gì?
Một câu hỏi xuất sắc và kịp thời.
Trái với niềm tin phổ biến, thực sự có thể định nghĩa một entropy thông tin tự nhiên (và về mặt lý thuyết) cho một hình ảnh.
Hãy xem xét hình sau:
Chúng ta có thể thấy rằng hình ảnh vi sai có biểu đồ nhỏ gọn hơn, do đó entropy thông tin Shannon của nó thấp hơn. Vì vậy, chúng ta có thể nhận được mức dự phòng thấp hơn bằng cách sử dụng entropy thứ hai của Shannon (tức là entropy có nguồn gốc từ dữ liệu vi sai). Nếu chúng ta có thể mở rộng ý tưởng này về mặt đẳng hướng thành 2D, thì chúng ta có thể mong đợi các ước tính tốt cho entropy thông tin hình ảnh.
Biểu đồ hai chiều của độ dốc cho phép mở rộng 2D.
Chúng ta có thể chính thức hóa các đối số và, thực sự, điều này đã được hoàn thành gần đây. Tóm tắt ngắn gọn:
Quan sát rằng định nghĩa đơn giản (xem ví dụ định nghĩa entropy của MATLAB) bỏ qua cấu trúc không gian là rất quan trọng. Để hiểu những gì đang xảy ra, đáng để quay lại trường hợp 1D một cách ngắn gọn. Từ lâu, người ta đã biết rằng sử dụng biểu đồ của tín hiệu để tính toán thông tin / entropy Shannon của nó bỏ qua cấu trúc không gian hoặc thời gian và đưa ra ước tính kém về khả năng nén hoặc dự phòng vốn có của tín hiệu. Giải pháp đã có sẵn trong văn bản cổ điển của Shannon; sử dụng các thuộc tính bậc hai của tín hiệu, tức là xác suất chuyển tiếp. Quan sát năm 1971 (Gạo & Vui lòng) rằng công cụ dự đoán tốt nhất của giá trị pixel trong quét raster là giá trị của pixel trước đó ngay lập tức dẫn đến bộ dự đoán vi phân và entropy bậc hai phù hợp với các ý tưởng nén đơn giản như mã hóa độ dài chạy. Những ý tưởng này đã được tinh chỉnh vào cuối những năm 80, dẫn đến một số kỹ thuật mã hóa hình ảnh (vi sai) cổ điển vẫn đang được sử dụng (PNG, JPG không mất dữ liệu, GIF, JPG2000 không mất dữ liệu) trong khi wavelet và DCT chỉ được sử dụng để mã hóa mất dữ liệu.
Chuyển sang 2D; các nhà nghiên cứu nhận thấy rất khó để mở rộng ý tưởng của Shannon lên các chiều cao hơn mà không đưa ra sự phụ thuộc định hướng. Theo trực giác, chúng ta có thể mong đợi entropy thông tin của Shannon là độc lập với định hướng của nó. Chúng tôi cũng hy vọng các hình ảnh có cấu trúc không gian phức tạp (như ví dụ nhiễu ngẫu nhiên của người hỏi) sẽ có entropy thông tin cao hơn so với hình ảnh có cấu trúc không gian đơn giản (như ví dụ tỷ lệ xám mịn của người hỏi). Hóa ra lý do rất khó để mở rộng ý tưởng của Shannon từ 1D sang 2D là vì có sự bất đối xứng (một phía) trong công thức ban đầu của Shannon ngăn cản công thức đối xứng (đẳng hướng) trong 2D. Khi tính không đối xứng 1D được sửa, phần mở rộng 2D có thể tiến hành dễ dàng và tự nhiên.
Cắt theo đuổi (độc giả quan tâm có thể kiểm tra giải trình chi tiết trong bản in trước arXiv tại https://arxiv.org/abs/1609.01117 ) trong đó entropy hình ảnh được tính từ biểu đồ 2D của độ dốc (hàm mật độ xác suất độ dốc).
Đầu tiên, pdf 2D được tính toán bằng cách ước tính theo tỷ lệ của các đạo hàm x và y. Điều này giống với hoạt động tạo thùng được sử dụng để tạo biểu đồ cường độ phổ biến hơn trong 1D. Các đạo hàm có thể được ước tính bằng các khác biệt hữu hạn 2 pixel được tính theo hướng ngang và dọc. Đối với ảnh vuông NxN f (x, y), chúng tôi tính các giá trị NxN của các giá trị fx và NxN phái sinh một phần của fy. Chúng tôi quét qua hình ảnh vi sai và với mỗi pixel chúng tôi sử dụng (fx, fy) để xác định vị trí một thùng rời rạc trong mảng đích (2D pdf) sau đó được tăng thêm một. Chúng tôi lặp lại cho tất cả các pixel NxN. Pdf 2D kết quả phải được chuẩn hóa để có xác suất đơn vị tổng thể (chỉ cần chia cho NxN đạt được điều này). Pdf 2D hiện đã sẵn sàng cho giai đoạn tiếp theo.
Việc tính toán entropy thông tin 2D Shannon từ pdf 2D gradient rất đơn giản. Công thức tính tổng logarit cổ điển của Shannon áp dụng trực tiếp ngoại trừ yếu tố quan trọng là một nửa bắt nguồn từ các cân nhắc lấy mẫu được phân tách bằng dải đặc biệt cho hình ảnh gradient (xem chi tiết giấy arXiv). Yếu tố nửa vời làm cho entropy 2D được tính toán thậm chí thấp hơn so với các phương pháp khác (dự phòng hơn) để ước tính entropy 2D hoặc nén không mất dữ liệu.
Tôi xin lỗi tôi đã không viết các phương trình cần thiết xuống đây nhưng mọi thứ đều có sẵn trong văn bản in sẵn. Các tính toán là trực tiếp (không lặp) và độ phức tạp tính toán là theo thứ tự (số lượng pixel) NxN. Entropy tính toán thông tin cuối cùng của Shannon là độc lập xoay và tương ứng chính xác với số bit cần thiết để mã hóa hình ảnh trong một biểu diễn gradient không dư thừa.
Nhân tiện, phép đo entropy 2D mới dự đoán một entropy (trực quan dễ chịu) 8 bit cho mỗi pixel cho hình ảnh ngẫu nhiên và 0.000 bit mỗi pixel cho hình ảnh gradient mượt mà trong câu hỏi ban đầu.