Tại sao số lượng biến thống nhất liên tục trên (0,1) cần thiết cho tổng của chúng vượt quá một biến có nghĩa là


14

Chúng ta hãy tổng hợp một luồng các biến ngẫu nhiên, X i i i d U ( 0 , 1 )XiiidU(0,1) ; Đặt YY là số lượng số hạng chúng ta cần cho tổng số vượt quá một, nghĩa là YY là số nhỏ nhất sao cho

X 1 + X 2 + + X Y > 1.

X1+X2++XY>1.

Tại sao giá trị trung bình của YY bằng hằng số Euler ee ?

E ( Y ) = e = 10 ! +11 ! +12 ! +13 ! +...

E(Y)=e=10!+11!+12!+13!+

Tôi đang đăng bài này theo tinh thần của một câu hỏi tự học, mặc dù tôi nghĩ rằng lần đầu tiên tôi thấy câu hỏi này hơn một thập kỷ trước. Tôi không thể nhớ lại cách mà tôi đã trả lời nó sau đó, mặc dù tôi chắc chắn rằng nó không xuất hiện trong tâm trí khi tôi thấy tài sản này được đề cập trong chủ đề Xấp xỉ ee sử dụng Mô phỏng Monte Carlo . Vì tôi nghi ngờ đây là một câu hỏi tập thể dục khá phổ biến, tôi đã chọn trình bày một bản phác thảo thay vì một giải pháp hoàn chỉnh, mặc dù tôi cho rằng "cảnh báo spoiler" chính thuộc về câu hỏi!
Cá bạc

Tôi vẫn rất quan tâm đến các phương pháp thay thế; Tôi biết điều này được đưa vào như một câu hỏi trong Lý thuyết Xác suất của Gnedenko (nguyên bản tiếng Nga nhưng được dịch rộng rãi) nhưng tôi không biết giải pháp nào được mong đợi ở đó, hoặc đặt ra ở nơi khác.
Cá bạc

1
Tôi đã viết một giải pháp mô phỏng trong MATLAB bằng phương pháp đơn giản của bạn. Tôi không biết về liên kết đến đơn giản, thật bất ngờ.
Aksakal

Câu trả lời:


14

Quan sát đầu tiên: YY có CDF dễ chịu hơn PMF

Các hàm xác suất khối lượng p Y ( n )pY(n) là xác suất mà nn là "chỉ vừa đủ" cho tổng số vượt quá sự hiệp nhất, tức là X 1 + X 2 + ... X nX1+X2+Xn vượt quá một khi X 1 + + X n - 1X1++Xn1 không không phải.

Phân phối tích lũy F Y ( n ) = Pr ( Y n )FY(n)=Pr(Yn) đơn giản yêu cầu nn là "đủ", tức là n i = 1 X i > 1ni=1Xi>1 không hạn chế bao nhiêu. Điều này có vẻ như một sự kiện đơn giản hơn nhiều để đối phó với xác suất.

Quan sát thứ hai: YY lấy các giá trị nguyên không âm để E ( Y )E(Y) có thể được viết theo CDF

Clearly YY can only take values in {0,1,2,}{0,1,2,}, so we can write its mean in terms of the complementary CDF, ˉFYF¯Y.

E(Y)=n=0ˉFY(n)=n=0(1FY(n))

E(Y)=n=0F¯Y(n)=n=0(1FY(n))

In fact Pr(Y=0)Pr(Y=0) and Pr(Y=1)Pr(Y=1) are both zero, so the first two terms are E(Y)=1+1+E(Y)=1+1+.

As for the later terms, if FY(n)FY(n) is the probability that ni=1Xi>1ni=1Xi>1, what event is ˉFY(n)F¯Y(n) the probability of?

Third observation: the (hyper)volume of an nn-simplex is 1n!1n!

The nn-simplex I have in mind occupies the volume under a standard unit (n1)(n1)-simplex in the all-positive orthant of RnRn: it is the convex hull of (n+1)(n+1) vertices, in particular the origin plus the vertices of the unit (n1)(n1)-simplex at (1,0,0,)(1,0,0,), (0,1,0,)(0,1,0,) etc.

volumes of 2-simplex and 3-simplex

For example, the 2-simplex above with x1+x21x1+x21 has area 1212 and the 3-simplex with x1+x2+x31x1+x2+x31 has volume 1616.

For a proof that proceeds by directly evaluating an integral for the probability of the event described by ˉFY(n)F¯Y(n), and links to two other arguments, see this Math SE thread. The related thread may also be of interest: Is there a relationship between ee and the sum of nn-simplexes volumes?


1
This is an interesting geometric approach, and easy to solve this way. Beautiful. Here's the equation for a volume of a simplex. I don't think there could be a more elegant solution, frankly
Aksakal

1
+1 You can also obtain the full distribution of YY from any of the approaches in my post at stats.stackexchange.com/questions/41467/….
whuber

If I stumbled on this solution, there's no way they could force me do it other way in a school :)
Aksakal

11

Fix n1n1. Let Ui=X1+X2++Ximod1

Ui=X1+X2++Ximod1
be the fractional parts of the partial sums for i=1,2,,ni=1,2,,n. The independent uniformity of X1X1 and Xi+1Xi+1 guarantee that Ui+1Ui+1 is just as likely to exceed UiUi as it is to be less than it. This implies that all n!n! orderings of the sequence (Ui)(Ui) are equally likely.

Given the sequence U1,U2,,UnU1,U2,,Un, we can recover the sequence X1,X2,,XnX1,X2,,Xn. To see how, notice that

  • U1=X1U1=X1 because both are between 00 and 11.

  • If Ui+1UiUi+1Ui, then Xi+1=Ui+1UiXi+1=Ui+1Ui.

  • Otherwise, Ui+Xi+1>1Ui+Xi+1>1, whence Xi+1=Ui+1Ui+1Xi+1=Ui+1Ui+1.

There is exactly one sequence in which the UiUi are already in increasing order, in which case 1>Un=X1+X2++Xn1>Un=X1+X2++Xn. Being one of n!n! equally likely sequences, this has a chance 1/n!1/n! of occurring. In all the other sequences at least one step from UiUi to Ui+1Ui+1 is out of order. This implies the sum of the XiXi had to equal or exceed 11. Thus we see that

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

This yields the probabilities for the entire distribution of YY, since for integral n1n1

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Moreover,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

QED.


I have read it a couple of times, and I almost get it... I posted a couple of questions in the Mathematics SE as a result of the e constant computer simulation. I don't know if you saw them. One of them came back before your kind explanation on Tenfold about the ceiling function of the 1/U(0,1) and the Taylor series. The second one was exactly about this topic, never got a response, until now...
Antoni Parellada


And could you add the proof with the uniform spacings as well?
Xi'an

@Xi'an Could you indicate more specifically what you mean by "uniform spacings" in this context?
whuber

I am referring to your Poisson process simulation via the uniform spacing, in the thread Approximate e using Monte Carlo Simulation for which I cannot get a full derivation.
Xi'an

6

In Sheldon Ross' A First Course in Probability there is an easy to follow proof:

Modifying a bit the notation in the OP, UiiidU(0,1) and Y the minimum number of terms for U1+U2++UY>1, or expressed differently:

Y=min{n:ni=1Ui>1}

If instead we looked for:

Y(u)=min{n:ni=1Ui>u}

for u[0,1], we define the f(u)=E[Y(u)], expressing the expectation for the number of realizations of uniform draws that will exceed u when added.

We can apply the following general properties for continuous variables:

E[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dy

to express f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of XU(0,1), fY(y)=1. This would be it:

f(u)=10E[Y(u)|U1=x]dx

If the U1=x we are conditioning on is greater than u, i.e. x>u, E[Y(u)|U1=x]=1. If, on the other hand, x<u, E[Y(u)|U1=x]=1+f(ux), because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):

f(u)=1+x0f(ux)dx

, and with substituting w=ux we would have f(u)=1+x0f(w)dw.

If we differentiate both sides of this equation, we can see that:

f(u)=f(u)f(u)f(u)=1

with one last integration we get:

log[f(u)]=u+cf(u)=keu

We know that the expectation that drawing a sample from the uniform distribution and surpassing 0 is 1, or f(0)=1. Hence, k=1, and f(u)=eu. Therefore f(1)=e.


I do like the manner in which this generalises the result.
Silverfish
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.