ทดสอบความแปรปรวนแน่นอน?


29

เป็นไปได้หรือไม่ที่จะทดสอบความละเอียด (หรือการมีอยู่) ของความแปรปรวนของตัวแปรสุ่มที่ให้กับกลุ่มตัวอย่าง? ในฐานะที่เป็นโมฆะ {ความแปรปรวนที่มีอยู่และ จำกัด } หรือ {การแปรปรวนไม่มีอยู่ / ไม่มีที่สิ้นสุด} จะยอมรับได้ เชิงปรัชญา (และการคำนวณ) สิ่งนี้ดูแปลกมากเพราะไม่ควรมีความแตกต่างระหว่างประชากรที่ไม่มีความแปรปรวนอัน จำกัด และอีกอันที่มีความแปรปรวนขนาดใหญ่มาก (พูด> ) ดังนั้นฉันจึงไม่หวังว่าปัญหานี้ แก้ไข10400

วิธีการหนึ่งที่แนะนำให้ฉันคือทฤษฎีบทขีด จำกัด กลาง: สมมติว่ากลุ่มตัวอย่างเป็น iid และประชากรมีค่าเฉลี่ยที่ จำกัด ใครสามารถตรวจสอบได้ว่าค่าเฉลี่ยตัวอย่างมีข้อผิดพลาดมาตรฐานที่เหมาะสมกับการเพิ่มขนาดตัวอย่างหรือไม่ ฉันไม่แน่ใจว่าฉันเชื่อว่าวิธีการนี้จะได้ผล (โดยเฉพาะฉันไม่เห็นวิธีที่จะทำให้เป็นการทดสอบที่เหมาะสม)


1
ที่เกี่ยวข้อง: stats.stackexchange.com/questions/94402/… หากมีความเป็นไปได้น้อยที่สุดที่ไม่มีความแปรปรวนอยู่คุณควรใช้แบบจำลองที่ไม่ถือว่ามีความแปรปรวนแน่นอน อย่าคิดถึงการทดสอบด้วยซ้ำ
kjetil b halvorsen

คำตอบ:


13

ไม่มีนี้เป็นไปไม่ได้เพราะตัวอย่าง จำกัด ของขนาดnไม่สามารถเชื่อถือได้แยกแยะความแตกต่างระหว่างการพูด, ประชากรปกติและประชากรปกติที่ปนเปื้อนโดย1/Nปริมาณของการกระจาย Cauchy ที่N >> nn(แน่นอนว่าอดีตมีความแปรปรวนแน่นอนและหลังมีความแปรปรวนอนันต์) ดังนั้นการทดสอบแบบไม่มีพารามิเตอร์ใด ๆ จะมีพลังงานต่ำตามอำเภอใจต่อทางเลือกดังกล่าว


4
นี่เป็นจุดที่ดีมาก อย่างไรก็ตามการทดสอบสมมติฐานส่วนใหญ่ไม่ได้ใช้พลังงานต่ำกับทางเลือกอื่นหรือไม่? เช่นการทดสอบค่าเฉลี่ยศูนย์จะมีพลังงานต่ำมากเมื่อได้รับตัวอย่างจากประชากรที่มีค่าเฉลี่ยสำหรับ0 < | ϵ | เล็ก ฉันยังคงสงสัยว่าการทดสอบดังกล่าวสามารถสร้างอย่างมีสติได้หรือไม่น้อยกว่าในบางกรณี ϵ0<|ϵ|
shabbychef

2
นอกจากนี้การแจกแจง 'มลพิษ' เช่นเดียวกับที่คุณอ้างถึงฉันมักจะขัดแย้งกับแนวคิดของการ 'กระจายตัวเหมือนกัน' บางทีคุณอาจจะเห็นด้วย ดูเหมือนว่าการบอกว่าตัวอย่างถูกดึงมาจากการแจกแจงบางอย่างโดยไม่ได้ระบุว่าการกระจายนั้นไม่มีความหมาย (เช่นกันส่วนของ 'อิสระ' ของ iid นั้นมีความหมาย)
shabbychef

2
(1) คุณถูกต้องเกี่ยวกับพลังงานต่ำ แต่ปัญหาที่นี่ (ดูเหมือนฉัน) คือว่าไม่มีขั้นตอนอย่างค่อยเป็นค่อยไปจาก "จำกัด " ถึง "ไม่มีที่สิ้นสุด": ปัญหาดูเหมือนจะไม่เป็นธรรมชาติที่จะบอกเรา สิ่งที่ถือเป็นการออก "เล็ก" จากโมฆะเมื่อเทียบกับการเดินทาง "ใหญ่" (2) รูปแบบการกระจายเป็นอิสระจากการพิจารณาของ iid ฉันไม่ได้หมายความว่า 1% ของข้อมูลจะมาจาก Cauchy และ 99% จาก Normal ฉันหมายความว่าข้อมูล 100% มาจากการกระจายที่เกือบปกติ แต่มีหาง Cauchy ในแง่นี้ข้อมูลสามารถเป็น iid สำหรับการกระจายตัวที่ปนเปื้อน
whuber

2
มีใครอ่านรายงานนี้บ้างไหม sciencedirect.com/science/article/pii/S0304407615002596
Christoph Hanck

3
@ shabbychef หากการสังเกตทุกครั้งเกิดขึ้นจากกระบวนการผสมที่เหมือนกันทุกประการพวกเขาจะกระจายตัวเหมือนกันโดยเป็นการจับสลากจากการกระจายส่วนผสมที่สอดคล้องกัน หากการสังเกตบางอย่างนั้นจำเป็นต้องใช้จากกระบวนการหนึ่งและอื่น ๆ นั้นจำเป็นต้องใช้จากกระบวนการที่แตกต่างกัน (การสังเกต 1 ถึง 990 เป็นเรื่องปกติและการสังเกต 991 ถึง 1,000 เป็น Cauchy, พูด) แล้วพวกเขาก็ไม่ได้กระจายตัวเหมือนกัน จากส่วนผสม 99% -1%) สิ่งนี้จะเป็นรูปแบบของกระบวนการที่คุณใช้เป็นหลัก
Glen_b -Reinstate Monica

16

คุณไม่สามารถมั่นใจได้หากไม่ทราบการกระจาย แต่มีบางสิ่งที่คุณสามารถทำได้เช่นดูสิ่งที่อาจเรียกว่า "ความแปรปรวนบางส่วน" เช่นถ้าคุณมีตัวอย่างของขนาดคุณจะวาดความแปรปรวนที่ประเมินจากเทอมแรกnโดยที่nวิ่งจาก 2 ถึง .NnnN

ด้วยความแปรปรวนประชากร จำกัด คุณหวังว่าความแปรปรวนบางส่วนในไม่ช้าก็จะเข้าใกล้ความแปรปรวนประชากร

ด้วยความแปรปรวนประชากรที่ไม่มีที่สิ้นสุดคุณจะเห็นการเพิ่มขึ้นของความแปรปรวนบางส่วนตามด้วยการปฏิเสธอย่างช้าๆจนกระทั่งค่าที่มีขนาดใหญ่มากถัดไปปรากฏในตัวอย่าง

นี่คือภาพประกอบที่มีตัวแปรสุ่มและตัวแปรสุ่ม Cauchy (และสเกลบันทึก) ความแปรปรวนบางส่วน

สิ่งนี้อาจไม่ช่วยถ้ารูปร่างของการแจกแจงของคุณนั้นมีขนาดตัวอย่างที่ใหญ่กว่าที่คุณต้องการเพื่อระบุด้วยความมั่นใจที่เพียงพอนั่นคือค่าที่มีขนาดใหญ่มากนั้นค่อนข้างหายากสำหรับการแจกแจงที่มีความแปรปรวน จำกัด หรือหายากมากสำหรับการแจกแจงที่มีความแปรปรวนแบบไม่สิ้นสุด สำหรับการแจกแจงที่กำหนดจะมีขนาดตัวอย่างที่มีแนวโน้มมากกว่าที่จะไม่เปิดเผยธรรมชาติ ในทางกลับกันสำหรับขนาดตัวอย่างที่กำหนดมีการแจกแจงที่มีแนวโน้มมากกว่าที่จะไม่ปลอมตัวลักษณะของพวกเขาสำหรับขนาดของตัวอย่างนั้น


4
+1 ฉันชอบสิ่งนี้เพราะ (ก) กราฟิกมักจะเปิดเผยมากกว่าการทดสอบและ (b) เป็นจริง ฉันกังวลเล็กน้อยว่ามันมีแง่มุมโดยพลการ: รูปร่างหน้าตาของมันจะขึ้นอยู่กับลำดับที่ได้รับข้อมูล เมื่อ "ความแปรปรวนบางส่วน" เกิดจากค่าสุดขั้วหนึ่งหรือสองค่าและเข้ามาใกล้จุดเริ่มต้นกราฟิกนี้อาจหลอกลวง ฉันสงสัยว่ามีวิธีแก้ไขปัญหานี้ได้ดีหรือไม่
whuber

1
+1 สำหรับกราฟิกที่ยอดเยี่ยม ทำให้แนวคิดของ "ไม่แปรปรวน" ในการกระจาย Cauchy จริงๆ @whuber: การเรียงลำดับข้อมูลในพีชคณิตที่เป็นไปได้ทั้งหมดดำเนินการทดสอบสำหรับแต่ละรายการและรับค่าเฉลี่ยบางประเภทใช่หรือไม่ ประสิทธิภาพในการคำนวณไม่มากฉันจะให้สิทธิ์คุณ :) แต่บางทีคุณอาจจะเลือกวิธีการสุ่มเรียงสับเปลี่ยนจำนวนหนึ่งก็ได้
naught101

2
@ naught101 การหาค่าเฉลี่ยของพีชคณิตทั้งหมดจะไม่บอกอะไรเลยเพราะคุณจะได้เส้นแนวนอนที่สมบูรณ์แบบ บางทีฉันอาจเข้าใจผิดว่าคุณหมายถึงอะไร
whuber

1
@ โฮเบอร์: จริง ๆ แล้วฉันหมายถึงการทดสอบแบบเฉลี่ยสำหรับการลู่เข้าไม่ใช่กราฟเอง แต่ฉันจะให้มันเป็นความคิดที่คลุมเครือสวยและที่ส่วนใหญ่เพราะผมมีความคิดว่าผมกำลังพูดถึง :)
naught101

7

นี่คือคำตอบอื่น สมมติว่าคุณสามารถแก้ไขปัญหาได้สิ่งนี้:

H0: Xt(df=3) versus H1: Xt(df=1).

จากนั้นคุณสามารถทำสามัญNeyman เพียร์สันทดสอบอัตราส่วนความน่าจะเป็นของเมื่อเทียบกับH 1 โปรดทราบว่าH 1คือCauchy (ความแปรปรวนอนันต์) และH 0เป็นtปกติของนักเรียนที่มี 3 องศาอิสระ (ความแปรปรวน จำกัด ) ซึ่งมี PDF: f ( x | ν ) = Γ ( ν + 1H0H1H1H0 t

f(x|ν)=Γ(ν+12)νπΓ(ν2)(1+x2ν)ν+12,

สำหรับ ได้รับข้อมูลตัวอย่างสุ่มอย่างง่ายx 1 , x 2 , ... , x nการทดสอบอัตราส่วนปฏิเสธH 0เมื่อ Λ ( x ) = Π n ฉัน= 1 F ( x ฉัน |เข้าพบ= 1 )<x<x1,x2,,xnH0 ที่k0ถูกเลือกเช่นนั้น P(Λ(X)>k

Λ(x)=i=1nf(xi|ν=1)i=1nf(xi|ν=3)>k,
k0
P(Λ(X)>k|ν=3)=α.

มันเป็นพีชคณิตเล็กน้อยที่จะทำให้simpl ( x ) = ( )ง่ายขึ้น

Λ(x)=(32)ni=1n(1+xi2/3)21+xi2.

Λ(x)H0Λ(x)α=0.05n=13

H0Λ

set.seed(1)
x <- matrix(rt(1000000*13, df = 3), ncol = 13)
y <- apply(x, 1, function(z) prod((1 + z^2/3)^2)/prod(1 + z^2))
quantile(y, probs = 0.95)

12.8842(3/2)13k1.9859

H0H1α

การปฏิเสธความรับผิด:นี่คือตัวอย่างของเล่น ฉันไม่มีสถานการณ์ในโลกแห่งความเป็นจริงที่ฉันอยากรู้ว่าข้อมูลของฉันมาจาก Cauchy เมื่อเทียบกับนักเรียนที่มี 3 df หรือไม่ และคำถามดั้งเดิมไม่ได้พูดอะไรเกี่ยวกับปัญหา parametrized ดูเหมือนว่ากำลังมองหาวิธีการแบบไม่มีพารามิเตอร์มากขึ้นซึ่งฉันคิดว่าคนอื่น ๆ พูดได้ดี จุดประสงค์ของคำตอบนี้มีไว้สำหรับผู้อ่านในอนาคตที่สะดุดกับชื่อของคำถามและกำลังมองหาวิธีตำราแบบดั้งเดิมที่มีฝุ่นมาก

H1:ν1


2
การประเมิน αในการแจกแจงแบบคงที่นั้นยากมาก
shabbychef

1
คุณสามารถทดสอบได้เช่นกัน H1:ν2เนื่องจาก T-dist มีความแปรปรวนแน่นอนสำหรับเท่านั้น ν>2.
probabilityislogic

2
Re: α, I didn't know it was notoriously difficult, but it sounds right, thanks. @probability, you are right, and the only reason I picked 3 versus 1 was because it meant less fractions. And BTW, I liked probability's answer better than mine (+1).

1
maybe I misremembered the result: something about tail index estimation when α is near 2; the paper is by Weron, I think. That aside, testing α=2 against a sum-stable alternative is a kind of normality test! Such tests usually reject given sufficient (real) data: see e.g. stats.stackexchange.com/questions/2492/…
shabbychef

6

In order to test such a vague hypothesis, you need to average out over all densities with finite variance, and all densities with infinite variance. This is likely to be impossible, you basically need to be more specific. One more specific version of this and have two hypothesis for a sample DY1,Y2,,YN:

  1. H0:YiNormal(μ,σ)
  2. HA:YiCauchy(ν,τ)

One hypothesis has finite variance, one has infinite variance. Just calculate the odds:

P(H0|D,I)P(HA|D,I)=P(H0|I)P(HA|I)P(D,μ,σ|H0,I)dμdσP(D,ν,τ|HA,I)dνdτ

Where P(H0|I)P(HA|I) is the prior odds (usually 1)

P(D,μ,σ|H0,I)=P(μ,σ|H0,I)P(D|μ,σ,H0,I)
And
P(D,ν,τ|HA,I)=P(ν,τ|HA,I)P(D|ν,τ,HA,I)

Now you normally wouldn't be able to use improper priors here, but because both densities are of the "location-scale" type, if you specify the standard non-informative prior with the same range L1<μ,τ<U1 and L2<σ,τ<U2, then we get for the numerator integral:

(2π)N2(U1L1)log(U2L2)L2U2σ(N+1)L1U1exp(N[s2(Y¯μ)2]2σ2)dμdσ

Where s2=N1i=1N(YiY¯)2 and Y¯=N1i=1NYi. And for the denominator integral:

πN(U1L1)log(U2L2)L2U2τ(N+1)L1U1i=1N(1+[Yiντ]2)1dνdτ

And now taking the ratio we find that the important parts of the normalising constants cancel and we get:

P(D|H0,I)P(D|HA,I)=(π2)N2L2U2σ(N+1)L1U1exp(N[s2(Y¯μ)2]2σ2)dμdσL2U2τ(N+1)L1U1i=1N(1+[Yiντ]2)1dνdτ

And all integrals are still proper in the limit so we can get:

P(D|H0,I)P(D|HA,I)=(2π)N20σ(N+1)exp(N[s2(Y¯μ)2]2σ2)dμdσ0τ(N+1)i=1N(1+[Yiντ]2)1dνdτ

The denominator integral cannot be analytically computed, but the numerator can, and we get for the numerator:

0σ(N+1)exp(N[s2(Y¯μ)2]2σ2)dμdσ=2Nπ0σNexp(Ns22σ2)dσ

Now make change of variables λ=σ2dσ=12λ32dλ and you get a gamma integral:

2Nπ0λN121exp(λNs22)dλ=2Nπ(2Ns2)N12Γ(N12)

And we get as a final analytic form for the odds for numerical work:

P(H0|D,I)P(HA|D,I)=P(H0|I)P(HA|I)×πN+12NN2s(N1)Γ(N12)0τ(N+1)i=1N(1+[Yiντ]2)1dνdτ

So this can be thought of as a specific test of finite versus infinite variance. We could also do a T distribution into this framework to get another test (test the hypothesis that the degrees of freedom is greater than 2).


1
When you started to integrate, you introduced a term s2. It persists through the final answer. What is it?
whuber

2
@whuber - s is the standard deviation MLE, s2=N1i=1N(YiY¯)2. I thought it was the usual notation for standard deviation, just as Y¯ is usual for average - which I have incorrectly written as x¯, will edit accordingly
probabilityislogic

5

The counterexample is not relevant to the question asked. You want to test the null hypothesis that a sample of i.i.d. random variables is drawn from a distribution having finite variance, at a given significance level. I recommend a good reference text like "Statistical Inference" by Casella to understand the use and the limit of hypothesis testing. Regarding h.t. on finite variance, I don't have a reference handy, but the following paper addresses a similar, but stronger, version of the problem, i.e., if the distribution tails follow a power law.

POWER-LAW DISTRIBUTIONS IN EMPIRICAL DATA SIAM Review 51 (2009): 661--703.


1

One approach that had been suggested to me was via the Central Limit Theorem.

This is a old question, but I want to propose a way to use the CLT to test for large tails.

Let X={X1,,Xn} be our sample. If the sample is a i.i.d. realization from a light tail distribution, then the CLT theorem holds. It follows that if Y={Y1,,Yn} is a bootstrap resample from X then the distribution of:

Z=n×mean(Y)mean(X)sd(Y),

is also close to the N(0,1) distribution function.

Now all we have to do is perform a large number of bootstraps and compare the empirical distribution function of the observed Z's with the e.d.f. of a N(0,1). A natural way to make this comparison is the Kolmogorov–Smirnov test.

The following pictures illustrate the main idea. In both pictures each colored line is constructed from a i.i.d. realization of 1000 observations from the particular distribution, followed by a 200 bootstrap resamples of size 500 for the approximation of the Z ecdf. The black continuous line is the N(0,1) cdf.

enter image description here enter image description here


2
No amount of bootstrapping will get you anywhere against the problem I raised in my answer. That's because the vast majority of samples will not supply any evidence of a heavy tail--and bootstrapping, by definition, uses only the data from the sample itself.
whuber

1
@whuber If the X values are taken from a symmetrical power law, then the generalized CLT applies and KS test will detect the difference. I believe that your observation do not correctly characterize what you say is a "gradual step from "finite" to "infinite""
Mur1lo

1
The CLT never "applies" to any finite sample. It's a theorem about a limit.
whuber

1
When I say that it "applies" I'm only saying that it provides a good approximation if we have a large sample.
Mur1lo

1
The vagueness of "good approximation" and "large" unfortunately fail to capture the logic of hypothesis tests. Implicit in your statement is the possibility of collecting an ever larger sample until you are able to detect the heavy-tailedness: but that's not how hypotheses tests usually work. In the standard setting you have a given sample and your task is to test whether it is from a distribution in the null hypothesis. In this case, bootstrapping won't do that any better than any more straightforward test.
whuber
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.