Sự khác biệt trong định nghĩa kurtosis và giải thích của họ


10

Gần đây tôi đã nhận ra rằng có những khác biệt trong các giá trị kurtosis được cung cấp bởi SPSS và Stata.

Xem http://www.ats.ucla.edu/stat/mult_pkg/faq/general/kurtosis.htmlm

Sự hiểu biết của tôi là cách giải thích giống nhau do đó sẽ khác nhau.

Bất kỳ lời khuyên về làm thế nào để đối phó với điều này?


Tôi biết về hai công thức đầu tiên và thật dễ dàng để phân biệt chúng; Tôi đã không nhìn thấy công thức thứ ba.
Peter Flom - Tái lập Monica

Câu trả lời:


9

Ba công thức

Ba công thức cho kurtosis thường được sử dụng bởi các chương trình khác nhau. Tôi sẽ nêu tất cả ba công thức ( , và ) và các chương trình sử dụng chúng.g2G2b2

Công thức đầu tiên và định nghĩa điển hình được sử dụng trong nhiều sách giáo khoa là (đây là công thức thứ hai trong liên kết bạn đã cung cấp) trong đó biểu thị các khoảnh khắc mẫu :

g2=m4m22
mr

mr=1n(xix¯)r

Đôi khi, một thuật ngữ hiệu chỉnh -3 được thêm vào công thức này để phân phối bình thường có độ nhiễu bằng 0. Công thức kurtosis có thuật ngữ -3 được gọi là kurtosis dư thừa (công thức đầu tiên trong liên kết bạn đã cung cấp).

Công thức thứ hai là (được sử dụng bởi SAS, SPSS và MS Excel; đây là công thức thứ ba trong liên kết bạn đã cung cấp)

G2=k4k22=n1(n2)(n3)[(n+1)g2+6]

Trong đó là kurtosis như được định nghĩa trong công thức đầu tiên.g2

Công thức thứ ba là (được sử dụng bởi MINITAB và BMDP)

b2=m4s43=(n1n)2m4m223

Trong đó là phương sai mẫu không thiên vị :s2

s2=1n1(xix¯)2

Trong Rkurtosis có thể được tính bằng cách sử dụng kurtosischức năng từ e1071gói (liên kết ở đây ). Tùy chọn typexác định một trong ba công thức được sử dụng để tính toán (1 = , 2 = , 3 = ).g23G2b2

Hai bài báo này thảo luận và so sánh cả ba công thức: thứ nhất , thứ hai .

Tóm tắt sự khác biệt giữa các công thức

  1. Sử dụng , một phân phối bình thường có giá trị kurtosis là 3 trong khi trong các công thức liên quan đến thuật ngữ hiệu chỉnh -3 (tức là và ), một phân phối bình thường có độ nhiễu quá 0.g2G2b2
  2. G2công thức duy nhất mang lại các ước tính không thiên vị cho các mẫu bình thường (nghĩa là kỳ vọng của theo quy tắc là 0 hoặc ).G2E(G2)=0
  3. Đối với các mẫu lớn, sự khác biệt giữa các công thức là không đáng kể và sự lựa chọn không quan trọng lắm.
  4. Đối với các mẫu nhỏ từ phân phối bình thường, mối quan hệ của ba công thức về các lỗi bình phương trung bình (MSE) là: . Vì vậy, có giá trị nhỏ nhất và lớn nhất (mặc dù chỉ không thiên vị). Đó là bởi vì có phương sai lớn nhất trong ba công thức: .mse(g2)<mse(b2)<mse(G2)g2G2G2G2Var(b2)<Var(g2)<Var(G2)
  5. Đối với các mẫu nhỏ từ các bản phân phối không bình thường , mối quan hệ của ba công thức về độ lệch là: . Về mặt bình phương erorrs: . Vì vậy, có sai số bình phương trung bình nhỏ nhất và sai lệch nhỏ nhất trong ba công thức. có sai số bình phương trung bình lớn nhất và sai lệch.bias(G2)<bias(g2)<bias(b2)mse(G2)<mse(g2)<mse(b2)G2b2
  6. Đối với các mẫu lớn ( ) từ các bản phân phối không bình thườngn>200 , mối quan hệ của ba công thức về độ lệch là: . Về mặt bình phương erorrs: .bias(G2)<bias(g2)<bias(b2)mse(b2)<mse(g2)<mse(G2)

Xem thêm trang Wikipediatrang MathWorld về kurtosis.


Tôi gọi đây là một cách giải thích rõ ràng, tốt đẹp về "câu chuyện thông thường". Tôi muốn nói thêm rằng các thuật ngữ leptokurtic, mesokurtic, platykurtic chỉ là hành lý chúng ta nên để lại trong thế kỷ 20: chúng ta có một biện pháp, mà chúng ta nên nghĩ về định lượng. Nghiêm trọng hơn, việc giải thích đạt đỉnh so với đầu phẳng không công bằng với sự thay đổi lớn trong các hình dạng phân phối có thể có, ngay cả những hình thức đối xứng. Cuối cùng, sự thiên vị trong thực tế không cắn nhiều trừ khi bạn đang chơi với các mẫu nhỏ không phù hợp, nhưng phương sai thực sự có!
Nick Cox

Bạn có thể vui lòng làm rõ mục tóm tắt # 2? Rõ ràng là một thống kê mẫu nhưng rõ ràng nó không bằng 0 đối với bất kỳ ngoại trừ phân phối suy biến. Có lẽ bạn muốn nói rằng kỳ vọng của nó là bằng không? (BTW, " " trong công thức của nó là gì? có lẽ?)G2γ2g2
whuber

@whuber: Vâng, tất nhiên, đó là kỳ vọng của bằng không. Các là một sót từ một câu trả lời sớm hơn và nên (thay đổi bây giờ); Tôi đã chỉnh sửa câu trả lời của tôi khá nhiều. G2γ2g2
COOLSerdash

OK, có vẻ tốt hơn. Tôi sẽ nâng cấp nó nhưng hy vọng cuối cùng bạn sẽ xóa cụm từ đó "Đối với phân phối bình thường " G2=0
whuber

7

Các liên kết trong câu hỏi nói về SAS quá. Nhưng trên thực tế không có gì trong câu hỏi này, ngoại trừ khả năng tập trung của chính người đăng, giới hạn nó trong các chương trình được đặt tên cụ thể đó.

Tôi nghĩ rằng chúng ta cần tách ra các loại vấn đề khá khác nhau ở đây, một số trong số đó là ảo tưởng và một số trong đó là chính hãng.

  1. Một số chương trình thực hiện, và một số thì không, trừ 3 để số đo kurtosis được báo cáo là 3 cho các biến Gaussian / bình thường không trừ và 0 với phép trừ. Tôi đã thấy mọi người bối rối bởi điều đó, thường khi sự khác biệt hóa ra là 2.999 và không chính xác là 3.

  2. Một số chương trình sử dụng các yếu tố hiệu chỉnh được thiết kế để đảm bảo rằng sự suy yếu được ước tính mà không có sai lệch. Các hệ số hiệu chỉnh tiếp cận 1 khi cỡ mẫu trở nên lớn hơn. Vì kurtosis không được ước tính tốt trong các mẫu nhỏ, nên điều này không đáng quan tâm lắm.n

Vì vậy, có một vấn đề nhỏ về công thức, # 1 là một vấn đề lớn hơn nhiều so với # 2, nhưng cả hai đều nhỏ nếu hiểu. Lời khuyên rõ ràng là xem xét tài liệu cho chương trình bạn đang sử dụng, và nếu không có tài liệu nào giải thích loại chi tiết đó để từ bỏ chương trình đó ngay lập tức. Nhưng một trường hợp thử nghiệm đơn giản như một biến số (1, 2) mang lại mức độ tổn thương là 1 hoặc 4 tùy thuộc vào số 1 (không có hệ số hiệu chỉnh).

Câu hỏi sau đó hỏi về giải thích, nhưng đây là một vấn đề cởi mở và gây tranh cãi hơn nhiều.

Trước khi chúng ta đến khu vực thảo luận chính, một khó khăn thường được báo cáo nhưng ít được biết đến là các ước tính kurtosis được giới hạn như một hàm của cỡ mẫu. Tôi đã viết một bài đánh giá ở Cox, NJ 2010. Giới hạn của độ lệch mẫu và kurtosis. Tạp chí Stata 10 (3): 482-495. http://www.stata-journal.com/article.html?article=st0204

Tóm tắt: Độ lệch mẫu và độ nhiễu được giới hạn bởi các chức năng của cỡ mẫu. Các giới hạn, hoặc gần đúng với chúng, đã nhiều lần được khám phá lại trong nhiều thập kỷ qua, nhưng dường như vẫn chỉ được biết đến ít. Các giới hạn truyền đạt sự thiên vị cho ước tính và, trong trường hợp cực đoan, ngụ ý rằng không có mẫu nào có thể làm chứng chính xác cho phân phối chính của nó. Các kết quả chính được giải thích trong phần đánh giá hướng dẫn và nó cho thấy Stata và Mata có thể được sử dụng như thế nào để xác nhận và khám phá hậu quả của chúng.

Bây giờ đến những gì thường được coi là không phải là vấn đề:

Nhiều người dịch kurtosis là đỉnh điểm, nhưng những người khác nhấn mạnh rằng nó thường phục vụ như một thước đo trọng lượng đuôi. Trong thực tế, hai cách giải thích đều có thể là từ ngữ hợp lý cho một số phân phối. Gần như không thể tránh khỏi việc không có sự giải thích bằng lời nói đơn giản về sự kurtosis: ngôn ngữ của chúng ta không đủ phong phú để so sánh các khoản tiền của các quyền lực thứ tư về độ lệch so với trung bình và tổng của các quyền lực thứ hai như nhau.

Trong một tác phẩm kinh điển nhỏ và thường bị bỏ qua, Irving Kaplansky (1945a) đã thu hút sự chú ý đến bốn ví dụ về phân phối với các giá trị khác nhau của kurtosis và hành vi không phù hợp với một số thảo luận về kurtosis.

Tất cả các bản phân phối đều đối xứng với trung bình 0 và phương sai 1 và có các hàm mật độ, cho biến và ,xc=π

(1)   (1/3c)(9/4+x4)exp(x2)

(2)   (3/(c8))exp(x2/2)(1/6c)(9/4+x4)exp(x2)

(3)   (1/6c)(exp(x2/4)+4exp(x2))

(4)   (33/16c)(2+x2)exp(3x2/4)

Kurtosis (không trừ) là (1) 2,75 (2) 3.125 (3) 4.5 (4) 8/3 2.667: so sánh giá trị Gaussian hoặc giá trị bình thường là 3. Mật độ tại giá trị trung bình là (1) 0.423 (2 ) 0.387 (3) 0.470 (4) 0.366: so sánh giá trị Gaussian của 0.399.

Đó là hướng dẫn để âm mưu những mật độ này. Người dùng Stata có thể tải xuống kaplanskychương trình của tôi từ SSC. Sử dụng thang đo logarit cho mật độ có thể giúp ích.

Không đưa ra các chi tiết đầy đủ, những ví dụ này làm suy yếu bất kỳ câu chuyện đơn giản nào mà mức độ tổn thương thấp hoặc cao có một sự giải thích rõ ràng về mặt đỉnh cao hoặc thực sự là bất kỳ sự tương phản nào khác.

Nếu cái tên Irving Kaplansky rung chuông, thì có khả năng là vì bạn biết công việc của ông trong đại số hiện đại. Ông (1917-2006) là một nhà toán học người Canada (sau này là người Mỹ) và giảng dạy và nghiên cứu tại Harvard, Chicago và Berkeley, với một năm thời chiến trong Nhóm Toán học Ứng dụng của Hội đồng Quốc phòng tại Đại học Columbia. Kaplansky đã đóng góp lớn cho lý thuyết nhóm, lý thuyết vòng, lý thuyết về đại số toán tử và lý thuyết trường. Ông là một nghệ sĩ dương cầm và nhà viết lời thành đạt và là một nhà triển lãm toán học nhiệt tình và sáng suốt. Cũng lưu ý một số đóng góp khác cho xác suất và thống kê của Kaplansky (1943, 1945b) và Kaplansky và Riordan (1945).

Kaplansky, I. 1943. Một đặc tính của phân phối bình thường. Biên niên sử thống kê toán học 14: 197-198.

Kaplansky, I. 1945a. Một lỗi phổ biến liên quan đến kurtosis. Tạp chí, Hiệp hội thống kê Mỹ 40: 259 thôi.

Kaplansky, I. 1945b. Sự phân phối tiệm cận của các phần tử liên tiếp. Biên niên sử thống kê toán học 16: 200-203.

Kaplansky, I. và Riordan, J. 1945. Nhiều kết hợp và chạy theo phương pháp tượng trưng. Biên niên sử thống kê toán học 16: 272-277.


1
+1 Nhận xét thú vị về Kaplansky, với công việc đại số mà tôi đã quen thuộc từ lâu.
whuber

Nick, nhận xét của bạn "Trong thực tế, hai cách giải thích (đỉnh cao và đuôi) có thể là từ ngữ hợp lý cho một số phân phối." là không chính xác do đó không hữu ích, đơn giản là vì kurtosis không cho bạn biết gì về "đỉnh cao". Nghiêm túc mà nói, bạn thậm chí có thể định nghĩa "đỉnh cao" nghĩa là gì không? Và, một cách tiếp theo, nếu tôi có thể: Đưa ra định nghĩa của bạn về "đỉnh cao" (giả sử bạn có thể đưa ra một), làm thế nào nó liên quan, về mặt toán học, với kurtosis?
Peter Westfall

@Peter Westfall Nếu chúng ta có thể đồng ý rằng kurtosis là biện pháp kurtosis, thì lập luận của tôi chỉ là lập luận của Kaplansky, dựa trên các đường cong cụ thể và kết quả bằng số, chứ không phải bằng lời nói, nghĩa là sự kurtosis cao hơn đôi khi đi với mật độ cao hơn, và ngược lại kurtosis thấp hơn. Tôi hoàn toàn không phải là một phần của thuật ngữ đỉnh cao, và khi bắt buộc phải đơn giản hóa bằng lời nói có xu hướng khẳng định rằng trong thực tế kurtosis chủ yếu là một câu chuyện về trọng lượng đuôi. Tôi nghĩ rằng các công thức ở đây làm tất cả các công việc và mang tất cả trọng lượng thống kê và tìm thấy các chính sách bằng lời nói ít hữu ích hơn.
Nick Cox

Ngoài ra, tôi không thể, tôi đề nghị, bất kỳ đặc điểm dễ dàng nào của kurtosis ngoại trừ các phân phối hoàn toàn đối xứng. Tôi không nghĩ bất cứ ai có nghĩa vụ phải xác định đỉnh cao cả; định nghĩa tồn tại là kurtosis và các câu hỏi thực tế là làm thế nào để suy nghĩ về nó và nó được sử dụng bao xa.
Nick Cox

Câu nói "đơn giản là vì kurtosis không cho bạn biết gì về đỉnh điểm" tự nó không có căn cứ. Thiếu tài liệu tham khảo chắc chắn sẽ bao gồm bài viết của bạn trong TAS, những người quan tâm có thể truy cập để xem xét cuộc thảo luận dài hơn của bạn.
Nick Cox
Khi sử dụng trang web của chúng tôi, bạn xác nhận rằng bạn đã đọc và hiểu Chính sách cookieChính sách bảo mật của chúng tôi.
Licensed under cc by-sa 3.0 with attribution required.