Lý thuyết thông tin được sử dụng để chứng minh các tuyên bố kết hợp gọn gàng?


54

Ví dụ yêu thích của bạn trong đó lý thuyết thông tin được sử dụng để chứng minh một tuyên bố kết hợp gọn gàng một cách đơn giản là gì?

Một số ví dụ tôi có thể nghĩ đến có liên quan đến giới hạn thấp hơn cho các mã có thể giải mã cục bộ, ví dụ, trong bài viết này : giả sử rằng đối với một chuỗi các chuỗi nhị phân có độ dài n giữ cho mọi i , với k i các cặp khác nhau { j 1 , j 2 }, e i = x j 1x j 2 . Khi đó m ít nhất là hàm mũ theo n, trong đó số mũ phụ thuộc tuyến tính vào tỷ lệ trung bình của kx1,...,xmnikij1,j2

ei=xj1xj2.
.ki/m

Một ví dụ khác (có liên quan) là một số bất đẳng thức đẳng tích trên khối Boolean (hãy giải thích vấn đề này trong câu trả lời của bạn).

Bạn có ví dụ tốt hơn? Tốt nhất, ngắn gọn và dễ giải thích.


ai đó có thể đưa ra một tham chiếu về "Một ví dụ khác (có liên quan) là một số bất đẳng thức đẳng tích trên khối Boolean" không?
vzn

Câu trả lời:


40

Bằng chứng của Moser về Bổ đề địa phương Lovasz mang tính xây dựng . Về cơ bản, ông cho thấy rằng, trong các điều kiện của bổ đề cục bộ, thuật toán đơn giản thứ hai cho SAT bạn có thể nghĩ về các công trình. (Đơn giản đầu tiên có thể là chỉ thử một phép gán ngẫu nhiên cho đến khi một phép làm việc đơn giản nhất Bằng chứng cho thấy điều này chạy trong thời gian đa thức có lẽ là cách sử dụng lý thuyết thông tin (hoặc độ phức tạp Kolmogorov), bất cứ điều gì bạn muốn gọi nó trong trường hợp này) tôi từng thấy.


1
Đẹp Kolmogorov phức tạp bằng chứng về Moser được giải thích ở đây: blog.computationalcomplexity.org/2009/06/... , nhưng tôi phải thừa nhận tôi đang tìm kiếm nhiều hơn cho một entropy / lẫn nhau thông tin / loại -calculation ví dụ ...
Dana Moshkovitz

Có một số ứng dụng khá thú vị về độ phức tạp Kolmogorov được đưa ra làm câu trả lời cho câu hỏi này: cstheory.stackexchange.com/questions/286
arnab

Terry Tao cũng thảo luận về lập luận của Moskva
Anthony Leverrier

5
Trên thực tế, trong bài viết thứ hai của anh ấy (với Tardos), bạn không còn cần phải truy đòi đệ quy nữa. Bạn chỉ cần tìm một mệnh đề không thỏa mãn, chọn một phép gán ngẫu nhiên cho các biến của nó và lặp lại . Đó là nó. Vì một số lý do, thuật toán đơn giản hơn (có cùng phân tích) đã không bị mắc kẹt.
Yuval Filmus

@DanaMoshkovitz: Tôi không biết tại sao điều này lại không xảy ra với tôi để nói sớm hơn để trả lời bình luận của bạn: Sự phức tạp và entropy của Kolmogorov, về nhiều mặt, về cơ bản là tương đương. Xem ví dụ: Hammer-Romaschenko-Shen-Vershchagin: dx.doi.org/10.1006/jcss.1999.1677 . Ví dụ, dựa trên [HRSV], bằng chứng về Bổ đề của Shearer trong câu trả lời của arnab có thể được chứng minh bằng về cơ bản cùng một bằng chứng sử dụng độ phức tạp Kolmogorov thay cho entropy. Sự khác biệt chỉ là quan điểm: K là về chiều dài mô tả, H là khoảng ... Đôi khi người ta dễ dàng / tự nhiên hơn người kia. pilogpi
Joshua Grochow

33

Ví dụ yêu thích của tôi về loại này là bằng chứng dựa trên entropy dựa trên Bổ đề của Shearer's. (Tôi đã học được bằng chứng này và một vài cái rất đẹp khác từ Entropy và Counting của Jaikumar Radhakrishnan .)

Khẳng định: Giả sử bạn có điểm trong R 3 đã n x dự báo khác nhau về y z -plane, n y dự báo khác nhau trên x z -plane và n z dự báo khác nhau về x y -plane. Sau đó, n 2n x n y n z .nR3nxyznyxznzxyn2nxnynz

Chứng minh: Đặt là một điểm được chọn thống nhất ngẫu nhiên từ n điểm. Gọi p x , p y , p z lần lượt là các hình chiếu của nó lên các mặt phẳng y z , x zx y . p=(x,y,z)npxpypzyzxzxy

Một mặt, , H [ p x ] log n x , H [ p y ] log n yH [ p z ] log n z , bởi đặc tính cơ bản của entropy.H[p]=lognH[px]lognxH[py]lognyH[pz]lognz

Mặt khác, chúng ta có và cả H [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + H [ z

H[p]=H[x]+H[y|x]+H[z|x,y]
H[px]=H[y]+H[z|y]
H [ p z ] = H [ x ] + H [ y | x ] Thêm ba phương trình cuối cùng cho ta: H [ p x ] + H [ p y ] + H [ p z ] = 2 H [ x ] + H [ y ] + H [ y | x ] + H
H[py]=H[x]+H[z|x]
H[pz]=H[x]+H[y|x]
H[px]+H[py]+H[pz]= 2H[x]+H[y]+ H[y|x]+ + H [ z | y ] 2 H [ x ] + 2 H [ y | x ] + 2 H [ z | x , y ] = 2 H [ p ] , nơi mà chúng tôi sử dụng thực tế là điều làm giảm entropy (nói chung, H [ một ] H [ một | b ]H[z|x] +H[z|y] 2H[x]+2H[y|x]+2H[z|x,y]= 2H[p]H[a]H[a|b]cho bất kỳ biến ngẫu nhiên ).a,b

Như vậy, ta có , hoặc n 2n x n y n z .2lognlognx+logny+lognzn2nxnynz


6
Một bài báo liên quan để kiểm tra là 'Siêu dữ liệu, Entropy và bất bình đẳng' của Ehud Friedgut. Nó cho thấy một viễn cảnh entropy, cụ thể là Bổ đề Shearer tổng quát, có thể dễ dàng phục hồi nhiều bất đẳng thức tiêu chuẩn, và một số quan điểm không chuẩn, phức tạp. Tôi nghĩ rằng nó cho một viễn cảnh chiếu sáng. Liên kết: ma.huji.ac.il/~ehudf/docs/KKLBKKKL.pdf
Andy Drucker

26

Bằng chứng entropy của Radhakrishnan về Định lý Bregman, rằng số lượng khớp hoàn hảo trong đồ thị lưỡng cực ( L R , E ) nhiều nhất là v L ( d ( v ) ! ) 1 / d ( v ) . Bằng chứng sử dụng hai ý tưởng rất thông minh. Dưới đây là một bản phác thảo của bằng chứng:p(LR,E)vL(d(v)!)1/d(v)

  • Chọn một kết hợp hoàn hảo thống nhất. Entropy của biến này là H ( M ) = log p .MH(M)=logp
  • Đối với , chúng ta hãy X v là đỉnh trong R mà là phù hợp với v trong M .vLXvRvM
  • Biến có cùng thông tin với M , vì vậy H ( M ) = H ( X ) .X=(Xv:vL)MH(M)=H(X)
  • Clever Idea 1: Bằng cách ngẫu nhiên (và thống nhất) chọn một trật tự trên L , Radhakrishnan cung cấp một "quy tắc ngẫu nhiên chuỗi" nêu H ( X ) = Σ v L H ( X v | X u : u < v , ) .LH(X)=vLH(Xv|Xu:u<v,)
  • Từ thông tin trong các điều kiện ( ) ta có thể xác định N v = | N ( v ) X u : u < v | (đại khái: số lượng lựa chọn để khớp v ).Xu:u<v,Nv=|N(v)Xu:u<v|v
  • được xác định từ thông tin này, nên entropy có điều kiện không thay đổi về đẳng thức H ( X v | X u : u < v , ) = H ( X v | X u : u < v , , N v ) .NvH(Xv|Xu:u<v,)=H(Xv|Xu:u<v,,Nv)
  • Clever Idea 2: Bằng cách "quên" thông tin , chúng ta có thể chỉ làm tăng entropy: H ( X v | X u : u < v , , N v ) H ( X v | N v ) .Xu:u<v,H(Xv|Xu:u<v,,Nv)H(Xv|Nv)
  • Điên Thực tế: Biến được phân bố đều trên tập 1 , ... , d ( v ) .Nv1,,d(v)
  • Bây giờ, để tính entropy , chúng ta tính tổng tất cả các giá trị của N v : H ( X v | N v ) = d ( v ) i = 1 1H(Xv|Nv)NvH(Xv|Nv)=i=1d(v)1d(v)H(Xv|Nv=i)1d(v)i=1d(v)logi=log((d(v)!)1/d(v)).
  • Kết quả sau đó bằng cách kết hợp tất cả các bất đẳng thức với nhau và lấy số mũ.

Các tổng quát của sự bất bình đẳng này là Kahn-Lovász Định lý: Số matchings hoàn hảo trong bất kỳ đồ thị là tại hầu hết các Π v V ( G ) ( d ( v ) ! ) 1 / 2 d ( v ) . Một bằng chứng entropy về kết quả này đã được Cutler và Radcliffe chứng minh .GvV(G)(d(v)!)1/2d(v)


1
Ví dụ tuyệt vời! Một điểm nhỏ: Khi bạn ước tính , có lẽ bạn chỉ có thể nói rằng H ( X vN v = i ) được giới hạn trên bởi log i . H(XvNv)H(XvNv=i)logi
Srikanth

Bạn hoàn toàn chính xác và tôi đã chỉnh sửa câu trả lời để sử dụng bất đẳng thức.
Derrick Stolee

20

Các ví dụ rất hay được Pippenger đưa vào hai bài báo Một phương pháp lý thuyết thông tin trong lý thuyết kết hợp. J. Lược. Lý thuyết, Ser. A 23 (1): 99-104 (1977) và Entropy và liệt kê các hàm boolean. Giao dịch của IEEE về lý thuyết thông tin 45 (6): 2096-2100 (1999). Trên thực tế, một số bài báo của Pippenger chứa các bằng chứng dễ thương về các sự kiện kết hợp bằng phương pháp entropy / thông tin lẫn nhau. Ngoài ra, hai cuốn sách: Jukna, Kết hợp cực đoan với các ứng dụng trong Khoa học máy tính và Aigner, Tìm kiếm kết hợp có một số ví dụ hay. Tôi cũng thích hai bài báo Madiman et al. Sự bất bình đẳng về lý thuyết thông tin trong Kết hợp cộng gộp và Terence Tao, ước tính tổng hợp Entropy (bạn có thể tìm thấy chúng với Google Scholar). Hy vọng nó giúp.


Trông giống như một danh sách đọc tuyệt vời!
Dana Moshkovitz

17

Một ví dụ tuyệt vời khác là bằng chứng thay thế của Terry Tao về bổ đề thường xuyên của đồ thị Szemerédi . Ông sử dụng một viễn cảnh lý thuyết thông tin để chứng minh một phiên bản mạnh mẽ của bổ đề chính quy, hóa ra nó cực kỳ hữu ích trong bằng chứng của ông về bổ đề đều đặn cho siêu dữ liệu . Bằng chứng của Tao, cho đến nay, là bằng chứng ngắn gọn nhất cho bổ đề thường xuyên của siêu dữ liệu.

Hãy để tôi cố gắng giải thích ở mức rất cao quan điểm lý thuyết thông tin này.

Giả sử bạn có đồ thị lưỡng cực , với hai tập đỉnh là V 1V 2 và cạnh đặt E là tập con của V 1 × V 2 . Mật độ cạnh của Gρ = | E | / | V 1 | | V 2 | . Chúng ta nói Gε -regular nếu cho tất cả U 1V 1U 2V 2GV1V2V1×V2Gρ=|E|/|V1||V2|GϵU1V1U2V2, Mật độ cạnh của đồ thị con gây ra bởi U 2ρ ± ε | U 1 | | U 2 | / | V 1 | | V 2 | .U1U2ρ±ϵ|U1||U2|/|V1||V2|

Bây giờ, hãy xem xét chọn một đỉnh từ V 1 và một đỉnh x 2 từ V 2 , một cách độc lập và thống nhất một cách ngẫu nhiên. Nếu ε là nhỏ và U 1 , U 2 là lớn, chúng ta có thể giải thích ε -regularity của G nói rằng điều x 1 là ở U 1x 2 là ở U 2 không ảnh hưởng đến nhiều khả năng mà ( x 1 , x 2x1V1x2V2ϵU1,U2ϵGx1U1x2U2 Tạo thành một cạnh trong G . Nói cách khác, ngay cả sau khi chúng tôi được cung cấp thông tin x 1 U 1 x 2 U 2 , chúng tôi vẫn chưa thu được nhiều thông tin về việc ( x 1 , x 2 ) có phải là cạnh hay không.(x1,x2)Gx1U1x2U2(x1,x2)

V1V2U1V1,U2V2U1×U2ϵx1x2E(x1,x2)U1(x1)U2(x2)U1U2Ex1|U1x2|U2hoặc thông tin lẫn nhau giữa các biến là rất nhỏ. Tao thực sự hình thành một phiên bản mạnh hơn của bổ đề thường xuyên bằng cách sử dụng thiết lập này. Ví dụ, anh ta không yêu cầu x 2 là các biến độc lập (mặc dù chưa có ứng dụng khái quát hóa này, theo như tôi biết). x1x2


15

Về cơ bản có toàn bộ khóa học dành cho câu hỏi này:

https://catalyst.uw.edu/workspace/anuprao/15415/86751

Khóa học vẫn đang tiếp diễn. Vì vậy, không phải tất cả các ghi chú có sẵn khi viết này. Ngoài ra, một số ví dụ từ khóa học đã được đề cập.


3
con trỏ đẹp: trông giống như một lớp học tuyệt vời.
Suresh Venkat

1
Theo như tôi có thể nói, lời đề nghị này là một nửa khóa học, với các ghi chú chứa một số ví dụ giúp trả lời tốt cho câu hỏi của tôi và một nửa hội thảo, bao gồm các ví dụ như giới hạn giao tiếp, trích xuất, lặp lại song song, v.v., đòi hỏi nhiều hơn là lý thuyết thông tin (ở đây không có ghi chú, chỉ liên kết đến các giấy tờ gốc).
Dana Moshkovitz

7

n2d1±ϵdO(logn/ϵ2)Ω(logn/(ϵ2log(1/ϵ)))log(1/ϵ)


4
1d

Có vẻ rất tự nhiên và tốt đẹp khi những kết quả hình học thuần túy này đã được chứng minh bởi những người TCS!
ilyaraz

6

mu[m]x[m]x=utt

O(m1/t)logmuti[t](logm)/tiu

X[m]H[X]=logmX1,,XttH[X]=H[X1]+H[X2|X1]++H[Xt|X1,,Xt1]tlogsssm1/t

t>1



3

Phân tích trường hợp trung bình của các thuật toán sử dụng độ phức tạp Kolmogorov của Jiang, Li, Vitanyi.

'Phân tích độ phức tạp trung bình của các thuật toán là một vấn đề rất thực tế nhưng rất khó khăn trong khoa học máy tính. Trong vài năm qua, chúng tôi đã chứng minh rằng độ phức tạp Kolmogorov là một công cụ quan trọng để phân tích độ phức tạp trường hợp trung bình của các thuật toán. Chúng tôi đã phát triển phương pháp không thể nén được [7]. Trong bài báo này, chúng tôi sử dụng một số ví dụ đơn giản để chứng minh thêm sức mạnh và sự đơn giản của phương pháp đó. Chúng tôi chứng minh giới hạn về số lượng ngăn xếp trung bình (hàng đợi) cần thiết để sắp xếp Queueusort hoặc Stacksort tuần tự hoặc song song. '

Xem thêm, ví dụ Độ phức tạp Kolmogorov và Bài toán tam giác của Loại Heilbronn .


3

Sự tương đương của việc lấy mẫu và tìm kiếm của Scott Aaronson. Ở đây, ông cho thấy sự tương đương của vấn đề lấy mẫu và tìm kiếm trong lý thuyết phức tạp liên quan đến tính hợp lệ của Luận án Giáo hội mở rộng. Lý thuyết thông tin tiêu chuẩn, lý thuyết thông tin thuật toán và độ phức tạp Kolmogorov được sử dụng một cách cơ bản.

Ông nhấn mạnh:
" Chúng ta hãy nhấn mạnh rằng chúng ta không sử dụng độ phức tạp Kolmogorov như một sự tiện lợi về mặt kỹ thuật, hoặc như một cách viết tắt cho một đối số đếm. Thay vào đó, độ phức tạp Kolmogorov dường như rất cần thiết ngay cả để xác định vấn đề tìm kiếm .. "


0

Điều này đơn giản và cũng gần đúng: có bao nhiêu kết hợp 10 6 trong số 10 9 , cho phép trùng lặp? Công thức đúng là

N = (10 6 + 10 9 )! / (10 6 ! 10 9 !) ~ = 2 11409189,141937481

Nhưng hãy tưởng tượng việc đưa ra các hướng dẫn để đi dọc theo một hàng tỷ thùng, thả một triệu viên bi vào các thùng trên đường đi. Sẽ có ~ 10 9 "bước tới các hướng dẫn" xô tiếp theo "và 10 6 " thả một viên bi ". Tổng số thông tin là

log 2 (N) ~ = -10 6 log 2 (10 6 / (10 6 + 10 9 )) - 10 9 log 2 (10 9 / (10 6 + 10 9 )) ~ = 11409200.432742426

đó là một cách hài hước, nhưng khá tốt để tính gần đúng (nhật ký của). Tôi thích nó vì nó hoạt động nếu tôi quên cách làm tổ hợp. Nó tương đương với việc nói rằng

(a + b)! / a! b! ~ = (a + b) (a + b) / a a b b

điều này giống như sử dụng xấp xỉ, hủy bỏ và thiếu thứ gì đó của Stirling.


2
Điều này có thể dễ đọc hơn nếu bạn thực hiện các ràng buộc chung thay vì các con số cụ thể. Tôi nghĩ rằng bạn đang nói về xấp xỉ dựa trên entropy của âm lượng của một quả bóng Hamming.
Sasho Nikolov

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.