คำถามติดแท็ก convergence

โดยทั่วไปการคอนเวอร์เจนซ์หมายความว่าลำดับของปริมาณตัวอย่างที่แน่นอนเข้าใกล้ค่าคงที่เนื่องจากขนาดตัวอย่างมีแนวโน้มที่จะไม่มีที่สิ้นสุด การบรรจบกันยังเป็นคุณสมบัติของอัลกอริทึมซ้ำเพื่อรักษาเสถียรภาพในมูลค่าเป้าหมายบางอย่าง

1
การวินิจฉัยลู่และลู่เข้าแบบเจลแมนและรูบินวิธีทั่วไปในการทำงานกับเวกเตอร์เป็นอย่างไร
การวินิจฉัย Gelman และ Rubin ใช้เพื่อตรวจสอบการลู่เข้าของเชน mcmc หลาย ๆ ตัวที่ทำงานแบบขนาน มันเปรียบเทียบความแปรปรวนภายในห่วงโซ่กับความแปรปรวนระหว่างห่วงโซ่การแสดงออกอยู่ด้านล่าง: ขั้นตอน (สำหรับแต่ละพารามิเตอร์): เรียกใช้ m ≥ 2 กลุ่มที่มีความยาว 2n จากค่าเริ่มต้นที่กระจายเกินพิกัด ยกเลิกการดึง n แรกในแต่ละเชน คำนวณความแปรปรวนภายในโซ่และระหว่างห่วงโซ่ คำนวณค่าความแปรปรวนโดยประมาณของพารามิเตอร์เป็นผลรวมถ่วงน้ำหนักของความแปรปรวนภายในห่วงโซ่และระหว่างห่วงโซ่ คำนวณปัจจัยการลดขนาดที่อาจเกิดขึ้น รายการสินค้า ฉันต้องการใช้สถิตินี้ แต่ตัวแปรที่ฉันต้องการใช้คือเวกเตอร์แบบสุ่ม มันสมเหตุสมผลไหมที่จะใช้ค่าเฉลี่ยของเมทริกซ์ความแปรปรวนร่วมในกรณีนี้?

4
เข้าใจง่ายถึงความแตกต่างระหว่างความสอดคล้องและไม่เอนเอียง
ฉันพยายามที่จะเข้าใจและรู้สึกถึงความแตกต่างและความแตกต่างระหว่างคำที่สอดคล้องและไม่เอนเอียง ฉันรู้ว่าคำจำกัดความทางคณิตศาสตร์ / สถิติของพวกเขา แต่ฉันกำลังมองหาบางอย่างที่ใช้งานง่าย สำหรับฉันการดูคำจำกัดความของแต่ละคนพวกเขาเกือบจะเหมือนกัน ฉันตระหนักถึงความแตกต่างจะต้องบอบบาง แต่ฉันไม่เห็นมัน ฉันพยายามนึกภาพความแตกต่าง แต่ทำไม่ได้ ใครช่วยได้บ้าง

1
ใช้
สมมติว่าฉันมีเป็น iid และฉันต้องการทดสอบสมมติฐานที่μคือ 0 สมมติว่าฉันมีขนาดใหญ่ n และสามารถใช้ทฤษฎีขีด จำกัด กลางได้ ฉันสามารถทำการทดสอบที่μ 2คือ 0 ซึ่งควรเทียบเท่ากับการทดสอบที่μคือ 0 ยิ่งไปกว่านั้นn ( ˉ X 2 - 0 )มาบรรจบกับไค - สแควร์โดยที่√X1,…,XnX1,…,XnX_1,\ldots,X_nμμ\muμ2μ2\mu^2μμ\mun(X¯2−0)n(X¯2−0)n(\bar{X}^2 - 0)เป็นค่าปกติ เนื่องจาก ˉ X 2มีอัตราคอนเวอร์เจนซ์ที่เร็วกว่าฉันไม่ควรใช้มันสำหรับสถิติการทดสอบและดังนั้นฉันจะได้อัตราคอนเวอร์เจนซ์ที่เร็วขึ้นและการทดสอบจะมีประสิทธิภาพมากขึ้นหรือไม่n−−√(X¯−0)n(X¯−0)\sqrt{n}(\bar{X} - 0)X¯2X¯2\bar{X}^2 ฉันรู้ว่าตรรกะนี้ผิด แต่ฉันคิดและค้นหามานานและไม่สามารถหาสาเหตุได้

2
ทฤษฎีบทของ Slutsky ยังคงใช้ได้เมื่อทั้งสองลำดับมาบรรจบกันเป็นตัวแปรสุ่มที่ไม่เสื่อมโทรมหรือไม่?
ฉันสับสนเกี่ยวกับรายละเอียดบางอย่างเกี่ยวกับทฤษฎีบทของ Slutsky : ให้{Xn}{Xn}\{X_n\} , {Yn}{Yn}\{Y_n\}เป็นสองลำดับขององค์ประกอบแบบสุ่มสเกลาร์ / เวกเตอร์ / เมทริกซ์ ถ้าXnXnX_nลู่ในการกระจายไปยังองค์ประกอบสุ่มXXXและYnYnY_n ลู่เข้าในความน่าจะเป็นค่าคงที่cccดังนั้นXn+Yn XnYn Xn/Yn →d X+c→d cX→d X/c,Xn+Yn →d X+cXnYn →d cXXn/Yn →d X/c,\eqalign{ X_{n}+Y_{n}\ &{\xrightarrow {d}}\ X+c\\ X_{n}Y_{n}\ &{\xrightarrow {d}}\ cX\\ X_{n}/Y_{n}\ &{\xrightarrow {d}}\ X/c, } ที่cccนั้นกลับด้านได้โดยที่→d→d{\xrightarrow {d}}หมายถึงลู่เข้าหากันในการแจกแจง หากทั้งสองลำดับในทฤษฎีบทของ Slutsky ทั้งคู่มารวมกันเป็นตัวแปรสุ่มที่ไม่เสื่อมโทรมทฤษฎีบทก็ยังคงใช้ได้และถ้าไม่ใช่ (มีคนให้ตัวอย่างเป็นตัวอย่าง) เงื่อนไขพิเศษที่ทำให้มันใช้ได้คืออะไร

3
เกี่ยวกับการลู่เข้าในความน่าจะเป็น
ปล่อยเป็นลำดับของตัวแปรสุ่ม stในความเป็นไปได้โดยที่เป็นค่าคงที่คงที่ ฉันพยายามที่จะแสดงต่อไปนี้: และ ทั้งคู่ในความน่าจะเป็น ฉันมาที่นี่เพื่อดูว่าตรรกะของฉันเป็นเสียงหรือไม่ นี่คืองานของฉัน{Xn}n≥1{Xn}n≥1\{X_n\}_{n\geq 1}Xn→aXn→aX_n \to aa&gt;0a&gt;0a>0Xn−−−√→a−−√Xn→a\sqrt{X_n} \to \sqrt{a}aXn→1aXn→1\frac{a}{X_n}\to 1 พยายาม สำหรับส่วนแรกเรามี สังเกตว่า หลังจากนั้น |Xn−−−√−a−−√|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn−−−√+a−−√|=ϵ|(Xn−−−√−sqrta)+2a−−√||Xn−a|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn+a|=ϵ|(Xn−sqrta)+2a||\sqrt{X_n}-\sqrt{a}|<\epsilon \impliedby |X_n-a|<\epsilon|\sqrt{X_n}+\sqrt{a}|=\epsilon|(\sqrt{X_n}-sqrt{a})+2\sqrt{a}| ≤ϵ|Xn−−−√−a−−√|+2ϵa−−√&lt;ϵ2+2ϵa−−√≤ϵ|Xn−a|+2ϵa&lt;ϵ2+2ϵa\leq \epsilon|\sqrt{X_n}-\sqrt{a}|+2\epsilon\sqrt{a}<\epsilon^2+2\epsilon\sqrt{a}ϵ2+2ϵa−−√&gt;ϵa−−√ϵ2+2ϵa&gt;ϵa\epsilon^2+2\epsilon\sqrt{a}>\epsilon\sqrt{a}P(|Xn−−−√−a−−√|≤ϵ)≥P(|Xn−a|≤ϵa−−√)→1asn→∞P(|Xn−a|≤ϵ)≥P(|Xn−a|≤ϵa)→1asn→∞P(|\sqrt{X_n}-\sqrt{a}|\leq \epsilon)\geq P(|X_n-a|\leq \epsilon\sqrt{a})\to 1 \;\;as\;n\to\infty ⟹Xn−−−√→a−−√inprobability⟹Xn→ainprobability\implies \sqrt{X_n}\to\sqrt{a} \;\;in\;probability สำหรับส่วนที่สองเรามี ตอนนี้เนื่องจากเป็นเรามีเป็นลำดับล้อมรอบ ในคำอื่น ๆ ที่มีอยู่เป็นจำนวนจริง STM ดังนั้น ดูที่ความน่าจะเป็นเรามี |aXn−1|=|Xn−aXn|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn||aXn−1|=|Xn−aXn|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn||\frac{a}{X_n}-1|=|\frac{X_n-a}{X_n}|<\epsilon \impliedby |X_n-a|<\epsilon|X_n|Xn→aXn→aX_n \to an→∞n→∞n \to \inftyXnXnX_nM&lt;∞M&lt;∞M<\infty|Xn|≤M|Xn|≤M|X_n|\leq M|Xn−a|&lt;ϵ|Xn|⟸|Xn−a|&lt;ϵM|Xn−a|&lt;ϵ|Xn|⟸|Xn−a|&lt;ϵM|X_n-a|<\epsilon|X_n|\impliedby |X_n-a|<\epsilon MP(|aXn−1|&gt;ϵ)=P(|Xn−a|&gt;ϵ|Xn|)≤P(|Xn−a|&gt;ϵM)→0asn→∞P(|aXn−1|&gt;ϵ)=P(|Xn−a|&gt;ϵ|Xn|)≤P(|Xn−a|&gt;ϵM)→0asn→∞P(|\frac{a}{X_n}-1|>\epsilon)=P(|X_n-a|>\epsilon|X_n|)\leq P(|X_n-a|>\epsilon M)\to …

2
จะเกิดอะไรขึ้นกับอัตราส่วนความน่าจะเป็นเมื่อมีการรวบรวมข้อมูลมากขึ้นเรื่อย ๆ
ให้ ,และเป็นความหนาแน่นและสมมติว่าคุณมี ,{N} เกิดอะไรขึ้นกับอัตราส่วนความน่าจะเป็น เป็น ? (มันมาบรรจบกันเพื่ออะไรนะ?)fffggghhhxi∼hxi∼hx_i \sim hi∈Ni∈Ni \in \mathbb{N}∏i=1nf(xi)g(xi)∏i=1nf(xi)g(xi) \prod_{i=1}^n \frac{f(x_i)}{g(x_i)} n→∞n→∞n \rightarrow \infty ตัวอย่างเช่นเราอาจคิดกรัม กรณีทั่วไปก็เป็นที่สนใจเช่นกันh=gh=gh = g

3
อีกคำถามหนึ่งในทฤษฎีบทขีด จำกัด กลาง
ปล่อยเป็นลำดับของตัวแปรสุ่มแบบอิสระของ Bernoulli ด้วย ตั้ง แสดงให้เห็นว่าลู่เข้าสู่การกระจายไปยังตัวแปรปกติมาตรฐานเมื่อมีแนวโน้มที่จะไม่มีที่สิ้นสุดP { X k = 1 } = 1 - P { X k = 0 } = 1{Xn:n≥1}{Xn:n≥1}\{X_n:n\ge1\}Sn= n ∑ k=1(Xk-1P{Xk=1}=1−P{Xk=0}=1k.P{Xk=1}=1−P{Xk=0}=1k.P\{X_k=1\}=1-P\{X_k=0\}=\frac{1}{k}. SnSn=∑k=1n(Xk−1k), B2n=∑k=1nk−1k2Sn=∑k=1n(Xk−1k), Bn2=∑k=1nk−1k2S_n=\sum^{n}_{k=1}\left(X_k-\frac{1}{k}\right), \ B_n^2=\sum^{n}_{k=1}\frac{k-1}{k^2} ZnSnBnSnBn\frac{S_n}{B_n}ZZZnnn ความพยายามของฉันคือใช้ Lyapunov CLT ดังนั้นเราต้องแสดงให้เห็นว่ามีเช่นนั้น δ&gt;0δ&gt;0\delta>0limn→∞1B2+δn∑k=1nE[|Xk−1k|2+δ]=0.limn→∞1Bn2+δ∑k=1nE[|Xk−1k|2+δ]=0.\lim_{n\rightarrow \infty}\frac{1}{B_n^{2+\delta}}\sum_{k=1}^{n}E[|X_k-\frac{1}{k}|^{2+\delta}]=0. ดังนั้นตั้งค่าδ=1δ=1\delta=1∑k=1nE∣∣Xk−k−1∣∣3=∑k=1n(1k−3k2+4k3−2k4)∑k=1nE|Xk−k−1|3=∑k=1n(1k−3k2+4k3−2k4) \sum_{k=1}^{n}E\left|X_k-k^{-1}\right|^{3}=\sum_{k=1}^{n} \left(\frac{1}{k}-\frac{3}{k^2}+\frac{4}{k^3}-\frac{2}{k^4}\right) และ B3n=(∑k=1n1k−1k2)(∑k=1n1k−1k2)−−−−−−−−−−−−⎷Bn3=(∑k=1n1k−1k2)(∑k=1n1k−1k2) B_n^3=\left( \sum_{k=1}^n \frac{1}{k}-\frac{1}{k^2} \right) \sqrt{\left( \sum_{k=1}^n \frac{1}{k}-\frac{1}{k^2} …

1
MLE ของ
สมมติว่ามี pdf(X,Y)(X,Y)(X,Y) fθ(x,y)=e−(x/θ+θy)1x&gt;0,y&gt;0,θ&gt;0fθ(x,y)=e−(x/θ+θy)1x&gt;0,y&gt;0,θ&gt;0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 ความหนาแน่นของตัวอย่างดึงมาจากประชากรนี้จึงเป็น(X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn&gt;0=exp[−nx¯θ−θny¯]1x(1),y(1)&gt;0,θ&gt;0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn&gt;0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)&gt;0,θ&gt;0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} ตัวประมาณโอกาสสูงสุดของสามารถได้รับเป็นθθ\theta θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} ฉันต้องการทราบว่าการ จำกัด การกระจายของ MLE นี้เป็นปกติหรือไม่ เป็นที่ชัดเจนว่าเป็นสถิติที่เพียงพอสำหรับตามกลุ่มตัวอย่างคือY)θθ\theta(X¯¯¯¯,Y¯¯¯¯)(X¯,Y¯)(\overline X,\overline Y) ตอนนี้ฉันจะได้กล่าวว่า MLE เป็นอาการปกติโดยไม่ต้องสงสัยถ้ามันเป็นสมาชิกของตระกูลเลขชี้กำลังหนึ่งพารามิเตอร์แบบปกติ ฉันไม่คิดว่าเป็นเช่นนั้นส่วนหนึ่งเป็นเพราะเรามีสถิติเพียงพอสองมิติสำหรับพารามิเตอร์หนึ่งมิติ (เช่นในการแจกแจง )N(θ,θ2)N(θ,θ2)N(\theta,\theta^2) การใช้ความจริงที่ว่าและเป็นตัวแปรเอกซ์โปเนนเชียลที่เป็นอิสระฉันสามารถแสดงให้เห็นว่าการกระจายที่แน่นอนของเป็นเช่นนั้นXXXYYYθθ^θ^\hat\theta θ^θ=dF−−√, where F∼F2n,2nθ^θ=dF, where F∼F2n,2n\frac{\hat\theta}{\theta}\stackrel{d}{=} \sqrt F\quad,\text{ where …

1
แสดงค่าประมาณมาเป็นเปอร์เซ็นต์ผ่านสถิติการสั่งซื้อ
ให้เป็นลำดับของตัวแปรสุ่ม iid ที่สุ่มตัวอย่างจากการแจกแจงแบบเสถียรอัลฟ่าโดยมีพารามิเตอร์1.0X1,X2,…,X3nX1,X2,…,X3nX_1, X_2, \ldots, X_{3n}α=1.5,β=0,c=1.0,μ=1.0α=1.5,β=0,c=1.0,μ=1.0\alpha = 1.5, \; \beta = 0, \; c = 1.0, \; \mu = 1.0 พิจารณาลำดับโดยที่ , สำหรับn-1 Y j + 1 = X 3 j + 1 X 3 j + 2 X 3 j + 3 - 1 j = 0 , …

3
การทดสอบทางสถิติเพื่อตรวจสอบเมื่ออนุกรมเวลาสองชุดที่คล้ายกันเริ่มแตก
จากชื่อฉันต้องการทราบว่ามีการทดสอบทางสถิติที่สามารถช่วยฉันระบุความแตกต่างที่สำคัญระหว่างอนุกรมเวลาสองชุดที่คล้ายกันได้หรือไม่ โดยเฉพาะเมื่อดูรูปด้านล่างฉันต้องการตรวจสอบว่าซีรีย์เริ่มเบี่ยงเบนเวลา t1 คือเมื่อความแตกต่างระหว่างพวกเขาเริ่มมีนัยสำคัญ ยิ่งกว่านั้นฉันจะตรวจจับเมื่อความแตกต่างระหว่างซีรีย์กลับมามีความหมายไม่มาก มีการทดสอบทางสถิติที่มีประโยชน์ในการทำเช่นนี้หรือไม่?

2
พิสูจน์หรือระบุตัวอย่าง: ถ้าดังนั้นXnXnX_n →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n} →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX ความพยายามของฉัน : เท็จ: สมมติว่าสามารถรับเฉพาะค่าลบและสมมติว่าXXXXn≡XXn≡XX_n \equiv X ∀∀\forall nnn จากนั้นอย่างไรก็ตามสำหรับ ,ไม่ได้เป็นลบอย่างเด็ดขาด แต่จะสลับเป็นค่าลบกับศูนย์และลบ ดังนั้นไม่ได้มาบรรจบเกือบแน่นอนXXnXnX_n →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXXnnn(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n}(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n}XXX นี่เป็นคำตอบที่สมเหตุสมผลหรือไม่? ถ้าไม่ฉันจะปรับปรุงคำตอบของฉันได้อย่างไร

1
มีทฤษฎีบทหนึ่งที่บอกว่าลู่เข้าหากันอย่างเป็นปกติเมื่อไปถึงอินฟินิตี้หรือไม่?
Let XXXจะกระจายใด ๆ กับการกำหนดค่าเฉลี่ยμμ\muและส่วนเบี่ยงเบนมาตรฐาน\σσ\sigmaทฤษฎีขีด จำกัด กลางบอกว่า n−−√X¯−μσnX¯−μσ \sqrt{n}\frac{\bar{X} - \mu}{\sigma} ลู่เข้าสู่การแจกแจงแบบปกติ ถ้าเราแทนที่σσ\sigmaด้วยค่าเบี่ยงเบนมาตรฐานตัวอย่างSSSมีทฤษฎีที่ระบุว่า n−−√X¯−μSnX¯−μS \sqrt{n}\frac{\bar{X} - \mu}{S} ลู่เข้าหากันเพื่อการกระจายตัวหรือไม่? ตั้งแต่ขนาดใหญ่nnnการแจกแจงแบบ t ใกล้ถึงระดับปกติทฤษฏีถ้ามีอยู่อาจระบุว่าขีด จำกัด เป็นการแจกแจงแบบปกติมาตรฐาน ดังนั้นฉันจึงเห็นว่าการแจกแจงแบบทีไม่มีประโยชน์อย่างมาก - พวกมันมีประโยชน์เฉพาะเมื่อXXXเป็นปกติโดยประมาณ เป็นกรณีนี้หรือไม่? หากเป็นไปได้คุณจะระบุการอ้างอิงที่มีหลักฐานของ CLT นี้เมื่อσσ\sigmaถูกแทนที่โดยSSSหรือไม่ การอ้างอิงเช่นนี้ควรใช้แนวคิดทฤษฎีการวัด แต่จะมีอะไรดีสำหรับฉัน ณ จุดนี้

1
K- หมายถึง: มีการทำซ้ำหลายครั้งในสถานการณ์จริง
ฉันไม่ได้มีประสบการณ์ในอุตสาหกรรมในการขุดข้อมูลหรือข้อมูลขนาดใหญ่ดังนั้นชอบที่จะได้ยินคุณแบ่งปันประสบการณ์ ผู้คนใช้งาน k-mean, PAM, CLARA และอื่น ๆ ในชุดข้อมูลขนาดใหญ่จริง ๆ หรือไม่? หรือพวกมันสุ่มเลือกตัวอย่างจากมัน? หากพวกเขาใช้ตัวอย่างของชุดข้อมูลผลลัพธ์จะน่าเชื่อถือหากชุดข้อมูลนั้นไม่ได้รับการกระจายตามปกติ ในสถานการณ์จริงเมื่อรันอัลกอริทึมเหล่านี้เราสามารถบอกได้ไหมว่าจะต้องทำซ้ำหลายครั้งจนกว่าจะเกิดการบรรจบกัน? หรือจำนวนการวนซ้ำมักเพิ่มขึ้นตามขนาดข้อมูลหรือไม่ ฉันถามสิ่งนี้เพราะฉันคิดว่าการพัฒนาวิธีการที่จะยุติอัลกอริทึมซ้ำก่อนการบรรจบกัน แต่ผลลัพธ์ยังคงเป็นที่ยอมรับ ฉันคิดว่ามันคุ้มค่าที่จะลองถ้าจำนวนการวนซ้ำพูดมากกว่า 1,000 ครั้งเพื่อให้เราสามารถประหยัดต้นทุนและเวลาในการคำนวณได้ คุณคิดอย่างไร?

1
เกือบจะแน่ใจว่าการบรรจบกันไม่ได้หมายถึงการบรรจบกันที่สมบูรณ์
เราบอกว่ามาบรรจบกันอย่างสมบูรณ์กับหากสำหรับinftyX1,X2,…X1,X2,…X_1, X_2, \ldotsXXXϵ&gt;0ϵ&gt;0\epsilon>0 ∑∞n=1P(|Xn−X|&gt;ϵ)&lt;∞∑n=1∞P(|Xn−X|&gt;ϵ)&lt;∞\sum_{n=1}^\infty \text{P}\left(|X_n-X|>\epsilon\right) <\infty ด้วยบทแทรกของ Borel Cantelli ตรงไปตรงมาเพื่อพิสูจน์ว่าการลู่เข้าแบบสมบูรณ์หมายถึงการบรรจบกันเกือบจะแน่นอน ฉันกำลังมองหาตัวอย่างเกือบแน่ใจว่าคอนเวอร์เจนซ์ไม่สามารถพิสูจน์ได้ด้วย Borel Cantelli นี่คือลำดับของตัวแปรสุ่มที่รวมกันเกือบจะแน่นอน แต่ไม่สมบูรณ์

1
R ตัวแปรเชิงเส้นถดถอยหมวดหมู่ "ซ่อน" ค่า
นี่เป็นเพียงตัวอย่างที่ฉันเจอหลายครั้งดังนั้นฉันจึงไม่มีข้อมูลตัวอย่าง ใช้แบบจำลองการถดถอยเชิงเส้นใน R: a.lm = lm(Y ~ x1 + x2) x1เป็นตัวแปรต่อเนื่อง x2เป็นหมวดหมู่และมีสามค่าเช่น "ต่ำ", "ปานกลาง" และ "สูง" อย่างไรก็ตามเอาต์พุตที่กำหนดโดย R จะเป็นดังนี้: summary(a.lm) Estimate Std. Error t value Pr(&gt;|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 ฉันเข้าใจว่า R แนะนำการเข้ารหัสแบบหลอกบางอย่างเกี่ยวกับปัจจัยดังกล่าว ( …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.