Bạn đã vấp phải một trong những kết quả nổi tiếng nhất của lý thuyết xác suất và thống kê. Tôi sẽ viết một câu trả lời, mặc dù tôi chắc chắn rằng câu hỏi này đã được hỏi (và trả lời) trước đây trên trang web này.
Đầu tiên, lưu ý rằng pdf của Y=X2 không thể là giống như của X là Y sẽ không âm. Để lấy được phân phối của Y chúng ta có thể sử dụng ba phương pháp, đó là kỹ thuật mgf, kỹ thuật cdf và kỹ thuật biến đổi mật độ. Hãy bắt đầu nào.
Kỹ thuật tạo mô men thời điểm .
Hoặc kỹ thuật chức năng đặc trưng, bất cứ điều gì bạn thích. Chúng ta phải tìm ra mgf củaY=X2 . Vì vậy, chúng ta cần tính toán kỳ vọng
E[etX2]
Sử dụng Luật Vô thức Statistician , tất cả chúng ta phải làm là tính toán không thể thiếu này trong phân phối của X . Do đó chúng ta cần tính toán
E[etX2]=∫∞−∞12π−−√etx2e−x22dx=∫∞−∞12π−−√exp{−x22(1−2t)}dt=∫∞−∞(1−2t)1/2(1−2t)1/212π−−√exp{−x22(1−2t)}dt=(1−2t)−1/2,t<12
trong đó ở dòng cuối cùng, chúng ta đã so sánh tích phân với tích phân Gaussian với giá trị trung bình bằng 0 và phương sai 1(1−2t) . Tất nhiên điều này tích hợp với một trên dòng thực. Bạn có thể làm gì với kết quả đó bây giờ? Chà, bạn có thể áp dụng một phép biến đổi nghịch đảo rất phức tạp và xác định pdf tương ứng với MGF này hoặc bạn có thể đơn giản nhận ra nó là MGF của phân phối chi bình phương với một bậc tự do. (Nhắc lại rằng phân phối chi bình phương là trường hợp đặc biệt của phân phối gamma vớiα=r2 ,rlà bậc tự do, vàβ=2 ).
Kỹ thuật CDF
Đây có lẽ là điều dễ nhất bạn có thể làm và nó được đề xuất bởi Glen_b trong các bình luận. Theo kỹ thuật này, chúng tôi tính toán
FY(y)=P(Y≤y)=P(X2≤y)=P(|X|≤y√)
và vì các hàm phân phối xác định các hàm mật độ, sau khi chúng ta có một biểu thức đơn giản hóa, chúng ta chỉ phân biệt với y để lấy pdf của chúng ta. Chúng ta có rồi
FY(y)=P(|X|≤y√)=P(−y√<X<y√)=Φ(y√)−Φ(−y√)
nơi Φ(.) biểu thị CDF của một biến bình thường tiêu chuẩn. Khác biệt đối với y chúng tôi nhận được,
fY(y)=F′Y(y)=12y√ϕ(y√)+12y√ϕ(−y√)=1y√ϕ(y√)
ϕ(.) bây giờ là pdf của một biến thông thường tiêu chuẩn và chúng tôi đã sử dụng thực tế là nó đối xứng về 0. Vì thế
fY(y)=1y√12π−−√e−y2,0<y<∞
which we recognize as the pdf of a chi-squared distribution with one degree of freedom (You might be seeing a pattern by now).
Density transformation technique
At this point you might wonder, why we do not simply use the transformation technique you are familiar with, that is, for a function Y=g(X) we have that the density of Y is given by
fY(y)=∣∣∣ddyg−1(y)∣∣∣fX(g−1(y))
for y in the range of g. Unfortunately this theorem requires the transformation to be one-to-one which is clearly not the case here. Indeed, we can see that two values of X result in the same value of Y, g being a quadratic transformation. Therefore, this theorem is not applicable.
What is applicable, nevertheless, is an extension of it. Under this extension, we may decompose the support of X (support means the points where the density is non-zero), into disjoint sets such that Y=g(X) defines a one-to-one transformation from these sets into the range of g. The density of Y is then given by the sum over all of these inverse functions and the corresponding absolute Jacobians. In the above notation
fY(y)=∑∣∣∣ddyg−1(y)∣∣∣fX(g−1(y))
where the sum runs over all inverse functions. This example will make it clear.
For y=x2, we have two inverse functions, namely x=±y√ with corresponding absolute Jacobian 12y√ and so the corresponding pdf is found to be
fY(y)=12y√12π−−√e−y/2+12y√12π−−√e−y/2=1y√12π−−√e−y/2,0<y<∞
the pdf of a chi-squared distribution with one degree of freedom. On a side note, I find this technique particularly useful as you no longer have to derive the CDF of the transformation. But of course, these are personal tastes.
So you can go to bed tonight completely assured that the square of a standard normal random variable follows the chi-squared distribution with one degree of freedom.