คำถามติดแท็ก mathematical-statistics

ทฤษฎีทางคณิตศาสตร์ของสถิติที่เกี่ยวข้องกับคำจำกัดความที่เป็นทางการและผลลัพธ์ทั่วไป

2
การประมาณค่าความน่าจะเป็นสูงสุดของความแปรปรวนร่วมของข้อมูลปกติแบบแปรปรวนคืออะไรเมื่อทราบค่าเฉลี่ยและความแปรปรวน?
สมมติว่าเรามีตัวอย่างแบบสุ่มจากการแจกแจงปกติแบบ bivariate ซึ่งมีค่าศูนย์เป็นค่ากลางและค่าความแปรปรวนดังนั้นพารามิเตอร์ที่ไม่รู้จักเพียงค่าเดียวคือความแปรปรวนร่วม MLE ของความแปรปรวนร่วมคืออะไร? ฉันรู้ว่ามันควรจะเป็น1n∑nj=1xjyj1n∑j=1nxjyj\frac{1}{n} \sum_{j=1}^{n}x_j y_jแต่เราจะรู้ได้อย่างไร

2
แคลคูลัสจำเป็นต้องมีความเข้าใจในการประมาณค่าความน่าจะเป็นสูงสุดอย่างไร
ฉันพยายามวางแผนแผนการเรียนรู้เพื่อการเรียนรู้ MLE ในการทำเช่นนี้ฉันกำลังพยายามหาแคลคูลัสระดับต่ำสุดที่จำเป็นต้องเข้าใจ MLE มันเพียงพอที่จะเข้าใจพื้นฐานของแคลคูลัส (เช่นการค้นหาฟังก์ชันขั้นต่ำและสูงสุด) เพื่อที่จะเข้าใจ MLE หรือไม่?

1
กำลังค้นหากลุ่มควบคุมเทียบเคียงสำหรับกลุ่มการรักษาหรือไม่?
ฉันมีกลุ่มการรักษาขนาด 30 (30 โรงเรียนในแคลิฟอร์เนีย) ที่ใช้ซอฟต์แวร์เสริมทางคณิตศาสตร์ ในการวิเคราะห์อย่างง่ายฉันต้องการเปรียบเทียบการเจริญเติบโตทางคณิตศาสตร์เฉลี่ยของนักเรียนระหว่างกลุ่มการรักษาของเรากับกลุ่มควบคุมที่เปรียบเทียบกันได้ มีหลายโรงเรียนใน CA ที่ไม่ได้ใช้ซอฟต์แวร์ ฉันต้องการให้กลุ่มควบคุมรวมโรงเรียนที่คล้ายคลึงกัน (คะแนนพื้นฐานของพวกเขาคล้ายกับโรงเรียนสอนบำบัดที่มีข้อผิดพลาดที่สมเหตุสมผล) นอกจากนี้ฉันต้องการให้กลุ่มตัวอย่างเป็นกลุ่มรักษา 3 เท่า (ที่นี่ 90 โรงเรียน) มีตัวเลือกมากมายให้เลือก 90 โรงเรียนจากกว่า 1,000 โรงเรียนในแคลิฟอร์เนีย คุณจะเลือกกลุ่มควบคุมอย่างไร

3
ทฤษฎีข้อมูล จำกัด ทฤษฎีบทกลาง
รูปแบบที่ง่ายที่สุดของ CLT เชิงทฤษฎีข้อมูล ได้แก่ : ให้จะ IID ที่มีค่าเฉลี่ยและความแปรปรวน1 ปล่อยให้f_nเป็นความหนาแน่นของผลรวม\ frac {\ sum_ {i = 1} ^ n X_i} {\ sqrt {n}}และ\ phiเป็นความหนาแน่นแบบเกาส์มาตรฐาน จากนั้นข้อมูลเชิงทฤษฎี CLT ระบุว่าถ้าD (f_n \ | \ phi) = \ int f_n \ log (f_n / \ phi) dxมีขอบเขตสำหรับnบางตัวดังนั้นD (f_n \ | \ phi) \ to 0เป็นn \ …

3
ทำไมฉันถึงได้รับข้อมูลข่าวสารมากกว่า 1
ฉันใช้ฟังก์ชันต่อไปนี้เพื่อคำนวณเอนโทรปี: from math import log def calc_entropy(probs): my_sum = 0 for p in probs: if p > 0: my_sum += p * log(p, 2) return - my_sum ผลลัพธ์: >>> calc_entropy([1/7.0, 1/7.0, 5/7.0]) 1.1488348542809168 >>> from scipy.stats import entropy # using a built-in package # give the same answer >>> entropy([1/7.0, …

2
วิธีแก้ปัญหารถถังเยอรมัน
มีข้อพิสูจน์ทางคณิตศาสตร์อย่างเป็นทางการหรือไม่ว่าวิธีแก้ปัญหาของปัญหารถถังเยอรมันนั้นเป็นฟังก์ชั่นเฉพาะพารามิเตอร์k (จำนวนตัวอย่างที่สังเกต) และm (ค่าสูงสุดระหว่างตัวอย่างที่สังเกต) กล่าวอีกนัยหนึ่งสามารถพิสูจน์ได้ว่าวิธีแก้ปัญหาเป็นอิสระจากค่าตัวอย่างอื่นนอกเหนือจากค่าสูงสุดหรือไม่

1
เกี่ยวกับการมีอยู่ของ UMVUE และทางเลือกของตัวประมาณของในประชากร
Letเป็นตัวอย่างที่สุ่มมาจากประชากรที่R(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n)N(θ,θ2)N(θ,θ2)\mathcal N(\theta,\theta^2)θ∈Rθ∈R\theta\in\mathbb R ฉันกำลังมองหา UMVUE ของ\θθ\theta ข้อต่อความหนาแน่นของคือ(X1,X2,⋯,Xn)(X1,X2,⋯,Xn)(X_1,X_2,\cdots,X_n) fθ(x1,x2,⋯,xn)=∏i=1n1θ2π−−√exp[−12θ2(xi−θ)2]=1(θ2π−−√)nexp[−12θ2∑i=1n(xi−θ)2]=1(θ2π−−√)nexp[1θ∑i=1nxi−12θ2∑i=1nx2i−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈Rfθ(x1,x2,⋯,xn)=∏i=1n1θ2πexp⁡[−12θ2(xi−θ)2]=1(θ2π)nexp⁡[−12θ2∑i=1n(xi−θ)2]=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]=g(θ,T(x))h(x)∀(x1,⋯,xn)∈Rn,∀θ∈R\begin{align} f_{\theta}(x_1,x_2,\cdots,x_n)&=\prod_{i=1}^n\frac{1}{\theta\sqrt{2\pi}}\exp\left[-\frac{1}{2\theta^2}(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[-\frac{1}{2\theta^2}\sum_{i=1}^n(x_i-\theta)^2\right] \\&=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right] \\&=g(\theta,T(\mathbf x))h(\mathbf x)\qquad\forall\,(x_1,\cdots,x_n)\in\mathbb R^n\,,\forall\,\theta\in\mathbb R \end{align} ที่และ 1g(θ,T(x))=1(θ2π√)nexp[1θ∑ni=1xi−12θ2∑ni=1x2i−n2]g(θ,T(x))=1(θ2π)nexp⁡[1θ∑i=1nxi−12θ2∑i=1nxi2−n2]g(\theta, T(\mathbf x))=\frac{1}{(\theta\sqrt{2\pi})^n}\exp\left[\frac{1}{\theta}\sum_{i=1}^n x_i-\frac{1}{2\theta^2}\sum_{i=1}^nx_i^2-\frac{n}{2}\right]h(x)=1h(x)=1h(\mathbf x)=1 ที่นี่ขึ้นอยู่กับและถึงและเป็นอิสระจาก\ดังนั้นโดยทฤษฎีบทตัวประกอบฟิชเชอร์ - เนย์แมนสถิติสองมิติก็เพียงพอแล้วสำหรับ\gggθθ\thetax1,⋯,xnx1,⋯,xnx_1,\cdots,x_nT(x)=(∑ni=1xi,∑ni=1x2i)T(x)=(∑i=1nxi,∑i=1nxi2)T(\mathbf x)=\left(\sum_{i=1}^nx_i,\sum_{i=1}^nx_i^2\right)hhhθθ\thetaT(X)=(∑ni=1Xi,∑ni=1X2i)T(X)=(∑i=1nXi,∑i=1nXi2)T(\mathbf X)=\left(\sum_{i=1}^nX_i,\sum_{i=1}^nX_i^2\right)θθ\theta อย่างไรก็ตามไม่ได้เป็นสถิติที่สมบูรณ์ นี่เป็นเพราะTTTEθ⎡⎣2(∑i=1nXi)2−(n+1)∑i=1nX2i⎤⎦=2n(1+n)θ2−(n+1)2nθ2=0∀θEθ[2(∑i=1nXi)2−(n+1)∑i=1nXi2]=2n(1+n)θ2−(n+1)2nθ2=0∀θE_{\theta}\left[2\left(\sum_{i=1}^n X_i\right)^2-(n+1)\sum_{i=1}^nX_i^2\right]=2n(1+n)\theta^2-(n+1)2n\theta^2=0\qquad\forall\,\theta และฟังก์ชั่นไม่ใช่ศูนย์เหมือนกันg∗(T(X))=2(∑ni=1Xi)2−(n+1)∑ni=1X2ig∗(T(X))=2(∑i=1nXi)2−(n+1)∑i=1nXi2g^*(T(\mathbf X))=2\left(\sum_{i=1}^n X_i\right)^2-(n+1)\sum_{i=1}^nX_i^2 แต่ฉันรู้ว่าเป็นสถิติที่น้อยที่สุดTTT ฉันไม่แน่ใจ แต่ฉันคิดว่าสถิติที่สมบูรณ์อาจไม่มีอยู่สำหรับตระกูลเลขชี้กำลังแบบโค้งนี้ แล้วฉันจะรับ UMVUE ได้อย่างไร? หากสถิติที่สมบูรณ์ไม่มีอยู่ตัวประมาณที่ไม่มีอคติ (เช่นในกรณีนี้) ซึ่งเป็นฟังก์ชันของสถิติที่เพียงพอเพียงเล็กน้อยคือ UMVUE หรือไม่ (หัวข้อที่เกี่ยวข้อง: เงื่อนไขที่จำเป็นสำหรับตัวประมาณที่ไม่มีอคติให้เป็น UMVUE คืออะไร …

2
เหตุใดตัวประมาณจึงถือเป็นตัวแปรสุ่ม
ความเข้าใจของฉันเกี่ยวกับสิ่งที่ตัวประมาณและตัวประมาณคือ: ตัวประมาณ: กฎในการคำนวณค่าประมาณ: ค่าที่คำนวณจากชุดข้อมูลตามตัวประมาณ ระหว่างคำสองคำนี้ถ้าฉันถูกขอให้ชี้ให้เห็นตัวแปรแบบสุ่มฉันจะบอกว่าการประมาณนั้นเป็นตัวแปรสุ่มเนื่องจากค่าของมันจะเปลี่ยนแบบสุ่มตามตัวอย่างในชุดข้อมูล แต่คำตอบที่ฉันได้รับคือ Estimator เป็นตัวแปรสุ่มและการประมาณการไม่ใช่ตัวแปรสุ่ม ทำไมถึงเป็นอย่างนั้น?

1
การพิสูจน์ระดับปริญญาตรีของทฤษฎีบท Pitman – Koopman – Darmois
ทฤษฎีบทพิตแมน –Koopman – Darmois กล่าวว่าหากตัวอย่าง iid จากตระกูลการแจกแจงความน่าจะเป็นที่ยอมรับยอมรับสถิติที่เพียงพอซึ่งจำนวนองค์ประกอบสเกลาร์ไม่เติบโตขึ้นกับขนาดของตัวอย่างมันก็เป็นตระกูลเลขชี้กำลัง ตำราหรือเอกสารอธิบายเบื้องต้นให้การพิสูจน์ไหม? ทำไมถึงตั้งชื่อตามคนสามคนนี้?

2
พิสูจน์ง่ายของ
ให้เป็นตัวแปรสุ่มมาตรฐานแบบอิสระที่เป็นอิสระ มีหลักฐานมากมาย (ยาว) ออกมาแสดงว่าZ1,⋯,ZnZ1,⋯,ZnZ_1,\cdots,Z_n ∑i=1n(Zi−1n∑j=1nZj)2∼χ2n−1∑i=1n(Zi−1n∑j=1nZj)2∼χn−12 \sum_{i=1}^n \left(Z_i - \frac{1}{n}\sum_{j=1}^n Z_j \right)^2 \sim \chi^2_{n-1} หลักฐานจำนวนมากค่อนข้างยาวและบางส่วนใช้การเหนี่ยวนำ (เช่นการอนุมานเชิงสถิติของ Casella) ฉันสงสัยว่ามีข้อพิสูจน์เรื่องผลการทดลองนี้หรือไม่

2
Paradox ของ Simpson ครอบคลุมการกลับรายการทั้งหมดจากตัวแปรที่ซ่อนอยู่หรือไม่?
ต่อไปนี้เป็นคำถามเกี่ยวกับการสร้างภาพข้อมูลจำนวนมากที่เสนอเป็น 'พิสูจน์ด้วยภาพ' ของการดำรงอยู่ของบุคคลที่ผิดธรรมดาของ Simpson และอาจเป็นคำถามเกี่ยวกับคำศัพท์ ซิมป์สัน Paradox เป็นปรากฏการณ์ที่ค่อนข้างง่ายที่จะอธิบายและยกตัวอย่างตัวเลขของ (เหตุผลที่ว่าทำไมนี้สามารถเกิดขึ้นได้เป็นลึกและน่าสนใจ) ความขัดแย้งก็คือมีตารางฉุกเฉิน 2x2x2 อยู่ (Agresti, การวิเคราะห์ข้อมูลอย่างมีหมวดหมู่) ซึ่งสมาคมร่อแร่มีทิศทางที่แตกต่างจากความสัมพันธ์ตามเงื่อนไข นั่นคือการเปรียบเทียบอัตราส่วนในสองประชากรย่อยสามารถไปในทิศทางเดียว แต่การเปรียบเทียบในประชากรที่รวมกันไปในทิศทางอื่น ในสัญลักษณ์: มีเช่นนั้น a + ba , b , c , d, e , f, g, ชั่วโมงa,b,c,d,e,f,g,ha,b,c,d,e,f,g,ha + bc + d&gt; e + fก.+ ชมa+bc+d&gt;e+fg+h \frac{a+b}{c+d} > \frac{e+f}{g+h} แต่ และaค&lt; eก.ac&lt;eg \frac{a}{c} < \frac{e}{g} …

2
โมเดลกราฟิกและเครื่องจักร Boltzmann เกี่ยวข้องกับคณิตศาสตร์หรือไม่?
ในขณะที่ฉันได้ทำการเขียนโปรแกรมด้วยเครื่องจักร Boltzmann ในระดับฟิสิกส์จริง ๆ แล้วฉันไม่คุ้นเคยกับลักษณะทางทฤษฎีของพวกเขา ในทางตรงกันข้ามฉันรู้ว่าเป็นจำนวนเงินที่เจียมเนื้อเจียมตัวเกี่ยวกับทฤษฎีของแบบจำลองกราฟิก (ประมาณสองสามบทแรกของหนังสือเล่ม Lauritzen ของกราฟิกรุ่น ) คำถาม:มีความสัมพันธ์ที่มีความหมายระหว่างโมเดลกราฟิกและเครื่องจักร Boltzmann หรือไม่? เครื่อง Boltzmann เป็นรูปแบบกราฟิกหรือไม่? เห็นได้ชัดว่าเครื่อง Boltzmann เป็นโครงข่ายประสาทประเภทหนึ่ง ฉันเคยได้ยินว่าเครือข่ายประสาทบางส่วนเกี่ยวข้องกับคณิตศาสตร์ในรูปแบบกราฟิกและบางเครือข่ายนั้นไม่ใช่ คำถามที่เกี่ยวข้องกับ CrossValidated ที่ไม่ตอบคำถามของฉัน: คล้ายกับคำถามก่อนหน้านี้ที่ถูกถามมาก่อน: อะไรคือความสัมพันธ์ระหว่างโมเดลลำดับชั้นเครือข่ายประสาทเทียมโมเดลกราฟิกเครือข่ายแบบเบย์? แต่มีความเฉพาะเจาะจงมากขึ้น ยิ่งกว่านั้นคำตอบที่ได้รับการยอมรับสำหรับคำถามนั้นไม่ได้ทำให้ฉันสับสน - แม้ว่าโหนดในการแสดงกราฟิกมาตรฐานของโครงข่ายประสาทเทียมไม่ได้เป็นตัวแทนของตัวแปรแบบสุ่มซึ่งไม่ได้หมายความว่าไม่มีตัวแทนดังกล่าวอยู่จริง โดยเฉพาะฉันคิดว่าโหนดในการแสดงกราฟิกทั่วไปของห่วงโซ่มาร์คอฟเป็นตัวแทนของชุดของสถานะที่เป็นไปได้มากกว่าตัวแปรสุ่มแต่ก็สามารถสร้างกราฟที่แสดงความสัมพันธ์แบบพึ่งพาเงื่อนไขระหว่างXiXiX_iXiXiX_iซึ่งแสดงให้เห็นว่าห่วงโซ่มาร์คอฟทุกอันที่จริงแล้วเป็นสนามสุ่มของมาร์คอฟ คำตอบยังบอกอีกว่าเครือข่ายประสาท (สันนิษฐานรวมถึงเครื่อง Boltzmann) เป็น "พินิจพิเคราะห์" แต่ไม่ได้เข้าไปดูรายละเอียดเพิ่มเติมเพื่ออธิบายสิ่งที่อ้างว่าหมายถึงและคำถามที่ตามมาอย่างชัดเจน จ่าหน้า ในทำนองเดียวกันคำตอบที่ได้รับการยอมรับเชื่อมโยงไปยังเว็บไซต์ของ Kevin Murphy (ฉันอ่านวิทยานิพนธ์ปริญญาเอกของเขาเมื่อเรียนรู้เกี่ยวกับเครือข่าย Bayesian) แต่เว็บไซต์นี้พูดถึงเครือข่าย Bayesian เท่านั้นและไม่ได้กล่าวถึงเครือข่ายประสาทเลย - แตกต่าง. คำถามอื่น ๆ นี้อาจคล้ายกับของฉันมากที่สุด: …

2
อคติเป็นทรัพย์สินของผู้ประมาณค่าหรือจากการประมาณค่าโดยเฉพาะหรือไม่?
เป็นตัวอย่างที่ผมมักจะพบนักเรียนที่รู้ว่าสังเกตเป็นประมาณการลำเอียงของประชากร 2 จากนั้นเมื่อเขียนรายงานพวกเขาพูดเช่น:R2R2R^2R2R2R^2 "ฉันคำนวณ Observedและ Adjustedและพวกมันก็ค่อนข้างคล้ายกันโดยแนะนำอคติเพียงเล็กน้อยในค่า Observedเราได้รับ"R2R2R^2R2R2R^2R2R2R^2 ฉันได้รับโดยทั่วไปเมื่อเราพูดถึงอคติเรามักพูดถึงคุณสมบัติของตัวประมาณมากกว่าการประมาณโดยเฉพาะ อย่างไรก็ตามข้อความที่ยกมานั้นเป็นคำที่ใช้ผิดวัตถุประสงค์หรือไม่

2
อะไรที่ไม่ตรง
อะไรสัญกรณ์ (dot กว่าตัวหนอน) หมายถึงในบริบทเช่น ? x ˙ ∼ N(0,1)~˙∼˙\dot\simx ∼˙ยังไม่มีข้อความ( 0 , 1 )x∼˙N(0,1)x \mathrel{\dot\sim} \mathcal N(0,1) พบว่าเป็นการง่ายกว่าที่จะหาวิธีการเรียงพิมพ์อย่างถูกต้อง: tex.SE อธิบายว่าควรพิมพ์\mathrel{\dot\sim}แทนที่จะ\dot\simแก้ไขปัญหาระยะห่าง - ง่ายกว่าการค้นหาความหมายที่แท้จริง มีการใช้งานCV เพียง4 ครั้งจนถึงขณะนี้ เป็นมาตรฐานหรือไม่

1
เมื่อทำการ parametrizing ฟังก์ชั่นความน่าจะเป็นอีกครั้งมันก็เพียงพอแล้วที่จะเสียบตัวแปรที่แปลงแล้วแทนที่จะเป็นสูตรการเปลี่ยนแปลงของตัวแปรหรือไม่?
สมมติว่าฉันกำลังพยายามสร้างความน่าจะเป็นซ้ำให้กับฟังก์ชันที่มีการแจกแจงแบบเอ็กซ์โปเนนเชียล หากฟังก์ชันความน่าจะเป็นดั้งเดิมของฉันคือ: p ( y∣ θ ) = θ e- θ yพี(Y|θ)=θอี-θY p(y \mid \theta) = \theta e^{-\theta y} และฉันต้องการอีกครั้ง parametrize โดยใช้เนื่องจากไม่ได้เป็นตัวแปรสุ่ม แต่พารามิเตอร์มันเพียงพอที่จะเสียบ?ϕ = 1θφ=1θ\phi = \frac{1}{\theta}θθ\theta สิ่งที่ฉันหมายถึงอย่างชัดเจนคือ: p ( y∣ ϕ = 1θ) = 1φอี- 1φYพี(Y|φ=1θ)=1φอี-1φY p\left(y \mid \phi = \frac{1}{\theta}\right) = \frac{1}{\phi} e^{-\frac{1}{\phi} y} ถ้าเป็นเช่นนั้นฉันไม่แน่ใจว่าทฤษฎีที่อยู่เบื้องหลังเรื่องนี้คืออะไร ความเข้าใจของฉันคือฟังก์ชั่นความน่าจะเป็นเป็นหน้าที่ของพารามิเตอร์ดังนั้นทำไมฉันไม่จำเป็นต้องใช้การเปลี่ยนแปลงของสูตรตัวแปรทำให้ฉันสับสน ความช่วยเหลือใด ๆ …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.