Một giới hạn dưới chặt chẽ về thời gian thu thập phiếu giảm giá là gì?


20

Trong bài toán Bộ sưu tập phiếu giảm giá cổ điển , ai cũng biết rằng thời gian T cần thiết để hoàn thành một bộ phiếu được chọn ngẫu nhiên thỏa mãn , và .nE[T]nlnnVar(T)n2Pr(T>nlnn+cn)<ec

Giới hạn trên này tốt hơn giới hạn được đưa ra bởi bất đẳng thức Ch Quashev, sẽ xấp xỉ .1/c2

Câu hỏi của tôi là: có giới hạn thấp hơn tương ứng với Ch Quashev cho không? (ví dụ: một cái gì đó như \ Pr (T <n \ ln n - cn) <e ^ {- c} )?Pr ( T < n ln n - c n ) < e - cTPr(T<nlnncn)<ec


Một giới hạn thấp hơn rõ ràng là Pr(T<n)=0 , nhưng tôi đoán bạn biết điều đó ...
onestop

Câu trả lời:


14

Tôi đang cung cấp đây là câu trả lời thứ hai vì phân tích là hoàn toàn cơ bản và cung cấp chính xác kết quả mong muốn.

Dự Đối với c>0n1 ,

P(T<nlogncn)<ec.

Ý tưởng đằng sau bằng chứng rất đơn giản:

  1. Đại diện cho thời điểm đó cho đến khi tất cả các phiếu giảm giá được thu thập như , nơi T i là thời gian mà tôi ngày (trước đây) độc đáo coupon được thu thập. Các T i là các biến ngẫu nhiên hình học với thời gian trung bình của nT=i=1nTiTiiTi .nni+1
  2. Áp dụng một phiên bản của ràng buộc Chernoff và đơn giản hóa.

Bằng chứng

Đối với bất kỳ bất kỳ s > 0 , ta có P ( T < t ) = P ( e - s T > e - s t ) e s t E e - s Tt s>0

P(T<t)=P(esT>est)estEesT.

Kể từ khi T i là độc lập, chúng ta có thể viết E e - s T = n Π iT=iTiTi

EesT=i=1nEesTi

Bây giờ vì là hình học, hãy nói với xác suất thành công p i , sau đó một phép tính đơn giản cho thấy E e - s T i = p iTipi

EesTi=pies1+pi.

Các cho vấn đề của chúng tôi là p 1 = 1 , p 2 = 1 - 1 / n , p 3 = 1 - 2 / n , vv Do đó, n Π i = 1 E e - s T i = n Π i = 1 i / npip1=1p2=11/np3=12/n

i=1nEesTi=i=1ni/nes1+i/n.

Hãy chọn t = n log n - c n cho một số c > 0 . Sau đó e s t = n e - ce s = e 1 / n1 + 1 / n , năng suất n Π i = 1 i / ns=1/nt=nlogncnc>0

est=nec
es=e1/n1+1/n
i=1ni/nes1+i/ni=1nii+1=1n+1.

Đặt lại với nhau này, chúng tôi nhận được rằng

P(T<nlogncn)nn+1ec<ec

như mong muốn.


Điều đó rất tốt đẹp và đúng như những gì bác sĩ đã yêu cầu. Cảm ơn bạn.
David

@David, chỉ tò mò: ứng dụng dự định là gì?
Đức Hồng Y

Câu chuyện dài. Tôi đang cố gắng chứng minh giới hạn thấp hơn cho thời gian trộn của chuỗi Markov mà tôi đã tạo ra để phân tích thời gian chạy của thuật toán mà tôi quan tâm - hóa ra là giảm xuống giới hạn c vấn đề .collector. BTW, tôi đã chơi xung quanh với việc cố gắng tìm chính xác loại ràng buộc kiểu Chernoff này, nhưng không tìm ra cách loại bỏ sản phẩm đó trong . Cuộc gọi tốt chọn s = 1 / n :-). is=1/n
David

@David, , trong khi gần như chắc chắn là tối ưu, dường như là điều rõ ràng để thử vì điều đó đã cho e s t = n e - c , đó là thuật ngữ tương tự như thuật ngữ thu được trong đạo hàm cho giới hạn trên. s=1/nest=nec
Đức Hồng Y

1
Yêu cầu : Bằng chứng tôi đưa ra ở trên là của riêng tôi. Tôi làm việc vì thích thú, vì vấn đề khiến tôi tò mò. Tuy nhiên, tôi không yêu cầu sự mới lạ. Thật vậy, tôi không thể tưởng tượng rằng một bằng chứng tương tự sử dụng một kỹ thuật tương tự không tồn tại trong tài liệu. Nếu bất cứ ai biết về một tài liệu tham khảo, xin vui lòng gửi nó như là một bình luận ở đây. Tôi sẽ rất quan tâm để biết về một.
Đức Hồng Y

9

Mặc dù @cardinal đã đưa ra một câu trả lời đưa ra chính xác ràng buộc mà tôi đang tìm kiếm, tôi đã tìm thấy một đối số tương tự theo kiểu Chernoff có thể đưa ra một ràng buộc mạnh mẽ hơn:

Proposition:

Pr(Tnlogncn)exp(3c2π2).
c>π23 )

Proof:

TTipi=1i/nE[Ti]=1/pi and E[T]=i=1nE[Ti]=ni=1n1inlogn.

Define now new variables Si:=TiE[Ti], and S:=iSi. We can then write

Pr(Tnlogncn)Pr(TE[T]cn)=Pr(Scn)
=Pr(exp(sS)exp(scn))escnE[esS]

Computing the averages, we have

E[esS]=iE[esSi]=ies/pi1+1pi(es1)e12s2ipi2
where the inequality follows from the facts that es1s and also ez1+ze12z2 for z0.

Thus, since ipi2=n2i=1n11i2n2π2/6, we can write

Pr(Tnlogncn)e112(nπs)2scn.

Minimizing over s>0, we finally obtain

Pr(Tnlogncn)e3c2π2

1
(+1) Modulo a couple of minor typos, this is nice. Expanding around something close to the mean as you've done often works better. I'm not surprised to see the higher order convergence in light of the asymptotic results. Now, if you show a similar such upper bound, that proves (Tnlogn)/n is subexponential in the terminology of Vershynin, which has many implications regarding measure concentration.
cardinal

1
The argument doesn't seem to generalize directly to the upper bound. Exchanging c for c (and s for s), one can follow the same steps up to the point of calculating E[esS]ies/pi1spi. At this point, however, the best I can do is to use ez1zexp(z22(1z)), which still leaves
E[esS]e12s2ipi2(1s/pi)
and I don't know what to do with this
David

2
Interestingly enough, though, the entire argument (for the lower bound) seems to work not only for the coupon collector problem, but for any sum of non-identical, independent geometric variables with bounded variance. Specifically: given T=iTi, where each Ti is an independent GV with success probability pi, and where ipi2A<, then
Pr(TE[T]a)ea22A
David

4

Important Note: I've decided to remove the proof I gave originally in this answer. It was longer, more computational, used bigger hammers, and proved a weaker result as compared to the other proof I've given. All around, an inferior approach (in my view). If you're really interested, I suppose you can look at the edits.

The asymptotic results that I originally quoted and which are still found below in this answer do show that as n we can do a bit better than the bound proved in the other answer, which holds for all n.


The following asymptotic results hold

P(T>nlogn+cn)1eec

and

P(Tnlogncn)eec.

The constant cR and the limits are taken as n. Note that, though they're separated into two results, they're pretty much the same result since c is not constrained to be nonnegative in either case.

See, e.g., Motwani and Raghavan, Randomized Algorithms, pp. 60--63 for a proof.


Also: David kindly provides a proof for his stated upper bound in the comments to this answer.


Yes, it holds for every fixed n. A (very simple) proof can be found, for instance in Levin, Peres and Wilmer's book Markov Chains and Mixing Times, Proposition 2.4. The proof doesn't work for the lower bound, though.
David

1
In fact, I might as well transcribe the proof here: "Let Ai be the event that the i-th [coupon] type does not appear among the first nlogn+cn coupons drawn. Observe first that P(τ>nlogn+cn)=P(iAi)iP(Ai). Since each trial has probability 1n1 of not drawing coupon i and the trials are independent, the right-hand side above is bounded above by i(11/n)nlogn+cnnexp(nlogn+cnn)=ec, proving (2.7)."
David

@David, that's nice and simple enough. I quickly played with expanding the inclusion-exclusion formula out by another term, but didn't get anywhere quickly and haven't had time to look at it further. The event {T<tn} is equivalent to the event that no coupons are left after tn trials. There should be a martingale associated with that. Did you try Hoeffding's inequality on the (presumed) associated martingale? The asymptotic result suggest strong measure concentration.
cardinal

@David, there's a sign flip in your proof above, but I'm sure that's obvious to other readers too.
cardinal

@David, please see my other posted answer to your question. The method is different than the upper bound you give, but the tools employed are nearly as elementary, in contrast to the answer I gave here.
cardinal

2

Benjamin Doerr gives (in the chapter " Analyzing Randomized Search Heuristics: Tools from Probability Theory" in the book "Theory of Randomized Search Heuristics", see the link for an online PDF) a somewhat simple proof of

Proposition Let T be the stopping time of the coupon collection process. Then Pr[T(1ϵ)(n1)lnn]enϵ.

This seems to give the desired asymptotics (from @cardinal's second answer), but with the advantage of being true for all n and ϵ.

Here is a proof sketch.

Proof Sketch: Let Xi be the event that the i-th coupon is collected in the first t draws. Thus, Pr[Xi=1]=(11/n)t. The key fact is that the Xi are negatively correlated, for any I[n], Pr[iI,Xi=1]iIPr[Xi=1]. Intuitively, this is fairly clear, as knowing that the i-th coupon in the first t draws would make it less likely that the j-th coupon is also drawn in the first t draws.

One can prove the claim, but enlarging the set I by 1 at each step. Then it reduces to showing that Pr[iI,Xi=1|Xj=1]Pr[iI,Xi=1], for jI. Equivalently, by averaging, it reduces to showing that Pr[iI,Xi=1|Xj=0]Pr[iI,Xi=1]. Doerr only gives an intuitive argument for this. One avenue to a proof is as follows. One can observe that conditioned on the j coupon coming after all of the coupons in I, that the probability of drawing a new coupon from I after drawing k so far is now |I|kn1, instead of the previous |I|kn. So decomposing the time to collect all coupons as a sum of geometric random variables, we can see that conditioning on the j-coupon coming after I increases the success probabilities, and thus doing the conditioning only makes it more likely to collect the coupons earlier (by stochastic dominance: each geometric random variable is increased, in terms of stochastic dominance, by the conditioning, and this dominance can then be applied to the sum).

Given this negative correlation, it follows that Pr[T(1ϵ)(n1)lnn](1(11/n)t)n, which gives the desired bound with t=(1ϵ)(n1)lnn.

Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.