คำถามติดแท็ก maximum-likelihood

วิธีการประมาณค่าพารามิเตอร์ของแบบจำลองทางสถิติโดยเลือกค่าพารามิเตอร์ที่ปรับความน่าจะเป็นของการสังเกตตัวอย่างที่กำหนดให้เหมาะสมที่สุด

2
ฉันจะทราบวิธีการประมาณค่าพารามิเตอร์ที่จะเลือกได้อย่างไร
มีวิธีการค่อนข้างน้อยสำหรับการประมาณค่าพารามิเตอร์ที่นั่น MLE, UMVUE, MoM, การตัดสินใจเชิงทฤษฎีและอื่น ๆ ทั้งหมดดูเหมือนว่าพวกเขามีเหตุผลเชิงเหตุผลว่าทำไมพวกเขาถึงมีประโยชน์สำหรับการประมาณค่าพารามิเตอร์ มีวิธีใดวิธีหนึ่งที่ดีกว่าวิธีอื่นหรือเป็นเพียงแค่วิธีที่เรากำหนดว่าตัวประเมินที่ "เหมาะสมที่สุด" (คล้ายกับวิธีการลดข้อผิดพลาด orthogonal ให้เกิดการประมาณที่แตกต่างจากวิธีกำลังสองน้อยที่สุด)?

1
อะไรคือเงื่อนไขปกติสำหรับการทดสอบอัตราส่วนความน่าจะเป็น
ใครช่วยกรุณาบอกฉันว่าเงื่อนไขปกติสำหรับการกระจาย asymptotic ของการทดสอบอัตราส่วนความน่าจะเป็นคืออะไร? ทุกที่ที่ฉันมองมันเขียนว่า 'ภายใต้เงื่อนไขของระเบียบ' หรือ 'ภายใต้ระเบียบที่น่าจะเป็น' เงื่อนไขอะไรกันแน่? มีอนุพันธ์ของความน่าจะเป็นบันทึกแรกและตัวที่สองและเมทริกซ์ข้อมูลไม่เป็นศูนย์หรือไม่? หรืออย่างอื่นอย่างสิ้นเชิง?

1
การทดสอบที่แน่นอนของฟิชเชอร์และการกระจาย hypergeometric
ฉันต้องการที่จะเข้าใจการทดสอบที่แม่นยำของฟิชเชอร์มากขึ้นดังนั้นฉันจึงคิดค้นตัวอย่างของเล่นต่อไปนี้โดยที่ f และ m สอดคล้องกับเพศชายและเพศหญิงและ n และ y สอดคล้องกับ "การบริโภคโซดา" เช่นนี้: > soda_gender f m n 0 5 y 5 0 เห็นได้ชัดว่านี่คือการทำให้เข้าใจง่ายมาก แต่ฉันไม่ต้องการให้บริบทเข้ามาขวางทาง ที่นี่ฉันเพิ่งสันนิษฐานว่าผู้ชายไม่ดื่มโซดาและหญิงดื่มโซดาและต้องการดูว่าวิธีการทางสถิติมาถึงข้อสรุปเดียวกัน เมื่อฉันทำการทดสอบฟิชเชอร์ที่แน่นอนใน R ฉันจะได้ผลลัพธ์ต่อไปนี้: > fisher.test(soda_gender) Fisher's Exact Test for Count Data data: soda_gender p-value = 0.007937 alternative hypothesis: true odds ratio is not equal to 1 …

4
การเปรียบเทียบการประมาณความเป็นไปได้สูงสุด (MLE) และทฤษฎีบทของเบย์
ในทฤษฎีบทแบบเบย์และจากหนังสือที่ฉันอ่านเรียกว่าความน่าจะเป็นแต่ฉันคิดว่ามันเป็นเพียงความน่าจะเป็นตามเงื่อนไขของให้จริงไหม?p ( y| x)= p ( x | y) p ( y)p ( x )p(y|x)=p(x|y)p(y)p(x)p(y|x) = \frac{p(x|y)p(y)}{p(x)}p ( x | y)p(x|y)p(x|y)xxxYyy การประมาณความน่าจะเป็นสูงสุดพยายามที่จะเพิ่มใช่ไหม? ถ้าเป็นเช่นนั้นฉันสับสนไม่ดีเพราะเป็นทั้งตัวแปรสุ่มใช่ไหม เพื่อเพิ่มให้ได้มากที่สุดคือ ? ปัญหาอีกข้อหนึ่งถ้าตัวแปรสุ่ม 2 ตัวนี้เป็นอิสระแล้วเป็นเพียงแค่ใช่ไหม? จากนั้นการเพิ่มคือการเพิ่ม(x)p ( x | y)p(x|y)p(x|y)x , yx,yx,yp ( x | y)p(x|y)p(x|y) Y^y^\hat yp ( x | y)p(x|y)p(x|y)p ( x )p(x)p(x)p ( x …

4
ตัวอย่างควรมีขนาดเท่าใดสำหรับเทคนิคการประมาณค่าและพารามิเตอร์ที่กำหนด?
มีกฎง่ายๆหรือแม้กระทั่งวิธีการใด ๆ ที่จะบอกว่าตัวอย่างขนาดใหญ่ควรจะประเมินโมเดลที่มีจำนวนพารามิเตอร์ที่กำหนดหรือไม่? ตัวอย่างเช่นถ้าฉันต้องการประมาณการถดถอยสี่เหลี่ยมน้อยที่สุดด้วยพารามิเตอร์ 5 ตัวตัวอย่างควรมีขนาดใหญ่แค่ไหน? ไม่ว่าคุณจะใช้เทคนิคการประเมินแบบใด (เช่นความน่าจะเป็นสูงสุด, กำลังสองน้อยที่สุด, GMM) หรือการทดสอบที่คุณจะทำการทดสอบ ควรพิจารณาความแปรปรวนตัวอย่างในการตัดสินใจหรือไม่?

4
การเชื่อมต่อระหว่าง MLE และความหมายของเอนโทรปีในการเรียนรู้ลึกเป็นอย่างไร
ผมเข้าใจว่าได้รับชุดของอิสระสังเกต ตัวประมาณความน่าจะเป็นสูงสุด (หรือที่เท่ากันคือ MAP ที่มี flat / uniform มาก่อน) ซึ่งระบุพารามิเตอร์ที่สร้างแบบจำลองการกระจาย p_ {model} \ ซ้าย (\, \ cdot \,; \ mathbf {θ} \ right) ที่ตรงกับข้อสังเกตเหล่านั้นมากที่สุดmmmO={o(1),...,o(m)}O={o(1),...,o(m)}\mathbb{O}=\{\mathbf{o}^{(1)}, . . . , \mathbf{o}^{(m)}\}θθ\mathbf{θ}pmodel(⋅;θ)pmodel(⋅;θ)p_{model}\left(\,\cdot\, ; \mathbf{θ}\right) θML(O)=pmodel(O;θ)=argmaxθ‎‎∏i=1mpmodel(o(i);θ)θML(O)=pmodel(O;θ)=arg⁡maxθ‎‎∏i=1mpmodel(o(i);θ)\mathbf{θ}_{ML}(\mathbb{O})= p_{model}\left(\mathbb{O}; \mathbf{θ}\right) = \underset{\mathbf{θ}}{\arg\max}‎‎\prod_{i=1}^{m} p_{model}\left(\mathbf{o}^{(i)}; \mathbf{θ}\right) หรือสะดวกยิ่งขึ้น θML(O)=argminθ∑i=1m−logpmodel(o(i);θ)θML(O)=arg⁡minθ∑i=1m−log⁡pmodel(o(i);θ)\mathbf{θ}_{ML}(\mathbb{O})= \underset{\mathbf{θ}}{\arg\min}\sum_{i=1}^{m} -\log p_{model}\left(\mathbf{o}^{(i)}; \mathbf{θ}\right) และดูบทบาทที่θMLθML\mathbf{θ}_{ML}สามารถเล่นในการกำหนดฟังก์ชั่นการสูญเสียสำหรับเครือข่ายนิวรัลลึกหลายระดับซึ่งθθ\mathbf{θ}สอดคล้องกับพารามิเตอร์ที่ฝึกอบรมของเครือข่าย (เช่นθ={W,b})θ={W,b})\mathbf{θ} = \{\mathbf{W}, \mathbf{b}\} )และการสังเกตเป็นคู่ของการเปิดใช้งานอินพุตxx\mathbf{x}และการแก้ไขเลเบลคลาสที่ถูกต้องy∈[1,k]y∈[1,k]y …

1
จะเข้าใจได้อย่างไรว่า MLE of Variance นั้นลำเอียงในการแจกแจงแบบเกาส์เซียน?
ฉันกำลังอ่าน PRML และฉันไม่เข้าใจภาพ คุณกรุณาให้คำแนะนำเพื่อเข้าใจภาพและทำไมความแปรปรวนของ MLE ในการแจกแจงแบบเกาส์ถึงมีอคติ? สูตร 1.55: สูตร 1.56 σ 2 M L E =1μMLE=1N∑n=1NxnμMLE=1N∑n=1Nxn \mu_{MLE}=\frac{1}{N} \sum_{n=1}^N x_n σ2MLE=1N∑n=1N(xn−μMLE)2σMLE2=1N∑n=1N(xn−μMLE)2 \sigma_{MLE}^2=\frac{1}{N}\sum_{n=1}^{N}(x_n-\mu_{MLE})^2

1
ตัวประมาณความน่าจะเป็นสูงสุด - ช่วงความมั่นใจ
ฉันจะสร้างช่วงความมั่นใจแบบซีมโทติคสำหรับพารามิเตอร์จริงโดยเริ่มจาก MLE สำหรับพารามิเตอร์นั้นได้อย่างไร

1
MLE สำหรับการกระจายสามเหลี่ยม?
เป็นไปได้หรือไม่ที่จะใช้ขั้นตอน MLE ปกติกับการแจกแจงสามเหลี่ยม? - ฉันกำลังพยายาม แต่ฉันดูเหมือนจะถูกบล็อกในขั้นตอนเดียวหรืออย่างอื่นในวิชาคณิตศาสตร์ตามวิธีการแจกแจงที่กำหนดไว้ ฉันพยายามใช้ความจริงที่ว่าฉันรู้จำนวนตัวอย่างด้านบนและด้านล่าง c (โดยไม่รู้ตัว c): ตัวเลขทั้งสองนี้คือ cn และ (1-c) n หาก n คือจำนวนตัวอย่างทั้งหมด อย่างไรก็ตามดูเหมือนว่าจะไม่ได้ช่วยในการสืบมา ช่วงเวลาของช่วงเวลาให้ตัวประมาณค่าสำหรับ c โดยไม่มีปัญหามาก อะไรคือลักษณะที่แน่นอนของการอุดตันของ MLE ที่นี่ (ถ้ามี) รายละเอียดเพิ่มเติม: ลองพิจารณาในและการแจกแจงที่นิยามไว้ในโดย: [ 0 , 1 ] [ 0 , 1 ]คคc[ 0 , 1 ][0,1][0,1][ 0 , 1 ][0,1][0,1] ฉ( x ; c …

1
ความสัมพันธ์ระหว่าง Hessian Matrix และ Covariance Matrix
ในขณะที่ฉันกำลังศึกษาการประมาณความเป็นไปได้สูงสุดเพื่อทำการอนุมานในการประมาณความน่าจะเป็นสูงสุดเราจำเป็นต้องทราบความแปรปรวน หากต้องการทราบความแปรปรวนฉันต้องรู้ว่า Rao Lower Bound ของแครเมอร์ซึ่งดูเหมือนเมทริกซ์ของ Hessian ที่มีอนุพันธ์อันดับสองเกี่ยวกับความโค้ง ฉันสับสนในการกำหนดความสัมพันธ์ระหว่างเมทริกซ์ความแปรปรวนร่วมกับเมทริกซ์แบบเฮสเซียน หวังว่าจะได้ยินคำอธิบายบางอย่างเกี่ยวกับคำถาม ตัวอย่างง่ายๆจะได้รับการชื่นชม

2
พารามิเตอร์โอกาสสูงสุดเบี่ยงเบนจากการแจกแจงหลัง
ฉันมีฟังก์ชั่นความน่าจะเป็นL (d| θ)L(d|θ)\mathcal{L}(d | \theta)สำหรับความน่าจะเป็นของข้อมูลของฉันdddรับพารามิเตอร์บางรุ่นθ∈RNθ∈RN\theta \in \mathbf{R}^Nซึ่งผมอยากจะประมาณการ สมมติว่ามีค่าคงที่ของพารามิเตอร์ระดับความน่าจะเป็นเป็นสัดส่วนกับความน่าจะเป็นหลัง ฉันใช้วิธี MCMC เพื่อสุ่มตัวอย่างความน่าจะเป็นนี้ เมื่อดูที่ลูกโซ่ที่เกิดขึ้นฉันพบว่าพารามิเตอร์ความน่าจะเป็นสูงสุดนั้นไม่สอดคล้องกับการแจกแจงแบบหลัง ตัวอย่างเช่นการกระจายความน่าจะเป็นด้านหลังของชายขอบสำหรับหนึ่งในพารามิเตอร์อาจเป็นθ0∼N(μ=0,σ2=1)θ0∼N(μ=0,σ2=1)\theta_0 \sim N(\mu=0, \sigma^2=1)ในขณะที่ค่าของθ0θ0\theta_0ที่จุดน่าจะเป็นสูงสุดคือθML0≈4θ0ML≈4\theta_0^{ML} \approx 4โดยพื้นฐานแล้ว เกือบจะเป็นค่าสูงสุดของθ0θ0\theta_0ผ่านการสุ่มตัวอย่างโดย MCMC นี่เป็นตัวอย่างที่แสดงไม่ใช่ผลลัพธ์ที่แท้จริงของฉัน การแจกแจงจริงนั้นซับซ้อนกว่า แต่พารามิเตอร์ ML บางตัวมีค่า p ที่ไม่น่าเหมือนกันในการแจกแจงหลัง ทราบว่าบางส่วนของพารามิเตอร์ของฉันจะกระโดด (เช่น0≤θ1≤10≤θ1≤10 \leq \theta_1 \leq 1 ); ภายในขอบเขตนักบวชจะเหมือนกันเสมอ คำถามของฉันคือ: การเบี่ยงเบนนั้นเป็นปัญหาต่อหรือเปล่า เห็นได้ชัดว่าฉันไม่ได้คาดหวังว่าพารามิเตอร์ ML จะเหมือนกันซึ่งสูงสุดของการกระจายหลังส่วนล่างของพวกเขาแต่ละคน แต่สังหรณ์ใจมันรู้สึกว่าพวกเขาไม่ควรพบลึกลงไปในหาง การเบี่ยงเบนนี้ทำให้ผลลัพธ์ของฉันเป็นโมฆะโดยอัตโนมัติหรือไม่ ไม่ว่าจะเป็นปัญหาหรือไม่มันเป็นอาการของโรคที่เฉพาะเจาะจงในบางช่วงของการวิเคราะห์ข้อมูลหรือไม่? ตัวอย่างเช่นเป็นไปได้หรือไม่ที่จะสร้างคำแถลงทั่วไปเกี่ยวกับว่าการเบี่ยงเบนดังกล่าวอาจเกิดจากการรวมกันของโซ่ที่ไม่ถูกต้องแบบจำลองที่ไม่ถูกต้องหรือขอบเขตที่แน่นเกินไปของพารามิเตอร์

4
การอนุมานที่ไม่มีความเป็นไปได้ - หมายความว่าอย่างไร
เมื่อเร็ว ๆ นี้ฉันได้ตระหนักถึงวิธีการ 'ไร้ความน่าจะเป็น' ซึ่งถูกรวบรวมในวรรณคดี อย่างไรก็ตามฉันไม่ชัดเจนเกี่ยวกับความหมายของวิธีการอนุมานหรือการเพิ่มประสิทธิภาพที่จะไม่มีโอกาสเกิดขึ้น ในการเรียนรู้ของเครื่องเป้าหมายมักจะเพิ่มความน่าจะเป็นของพารามิเตอร์บางอย่างให้เหมาะสมกับฟังก์ชั่นเช่นน้ำหนักบนเครือข่ายประสาท ดังนั้นอะไรคือปรัชญาของวิธีการที่ปราศจากโอกาสและทำไมเครือข่ายที่เป็นปฏิปักษ์เช่น GAN จึงอยู่ในหมวดหมู่นี้

2
ทำไมความน่าจะเป็นสูงสุดที่ จำกัด จึงให้ผลต่างประมาณที่ดีขึ้น (ไม่เอนเอียง)?
ฉันกำลังอ่านบทความทฤษฎีของ Doug Bates บนแพ็คเกจ lme4 ของ R เพื่อทำความเข้าใจกับ nitty-gritty ของแบบจำลองที่ผสมกันและพบผลลัพธ์ที่น่าสนใจที่ฉันต้องการทำความเข้าใจให้ดีขึ้นเกี่ยวกับการใช้โอกาสสูงสุดแบบ จำกัด (REML) เพื่อประเมินความแปรปรวน . ในมาตรา 3.3 ในเกณฑ์ REML เขากล่าวว่าการใช้ REML ในการประมาณค่าความแปรปรวนเกี่ยวข้องอย่างใกล้ชิดกับการใช้องศาความเป็นอิสระในการแก้ไขเมื่อประเมินความแปรปรวนจากส่วนเบี่ยงเบนที่เหลืออยู่ในตัวแบบเชิงเส้นพอดี โดยเฉพาะอย่างยิ่ง "แม้ว่าโดยปกติจะไม่ได้มาในลักษณะนี้" องศาของการแก้ไขอิสรภาพสามารถทำได้โดยการประเมินความแปรปรวนผ่านการปรับให้เหมาะสมของ "เกณฑ์ REML" (Eq. (28)) เกณฑ์ REML นั้นมีความเป็นไปได้เพียงอย่างเดียว แต่พารามิเตอร์เชิงเส้นพอดีได้ถูกกำจัดโดยการทำให้เป็นขอบ (แทนที่จะตั้งค่าให้เท่ากับการประมาณแบบพอดีซึ่งจะทำให้ความแปรปรวนตัวอย่างแบบเอนเอียง) ฉันทำคณิตศาสตร์และตรวจสอบผลลัพธ์ที่อ้างสิทธิ์สำหรับโมเดลเชิงเส้นอย่างง่ายที่มีเอฟเฟกต์คงที่เท่านั้น สิ่งที่ฉันกำลังดิ้นรนคือการตีความ มีมุมมองบางอย่างที่เป็นธรรมชาติหรือไม่ที่จะได้รับการประมาณค่าความแปรปรวนโดยการปรับความน่าจะเป็นที่พารามิเตอร์ทางพอดีได้ถูกทำให้ลดลง? มันให้ความรู้สึกเหมือนกับ Bayesian ราวกับว่าฉันกำลังคิดถึงโอกาสที่จะเป็นหลังและปรับพารามิเตอร์ที่เหมาะสมเหมือนพวกมันเป็นตัวแปรสุ่ม หรือเหตุผลหลักเกี่ยวกับคณิตศาสตร์เพียงอย่างเดียว - มันทำงานในกรณีเชิงเส้น แต่ยังเป็น generalizable?

1
การตีความทางเรขาคณิตของการประมาณความน่าจะเป็นสูงสุด
ฉันกำลังอ่านหนังสือปัญหาการระบุตัวตนในเศรษฐมิติโดยแฟรงคลินเอ็มฟิชเชอร์และสับสนโดยส่วนที่เขาแสดงให้เห็นถึงตัวตนโดยแสดงให้เห็นถึงฟังก์ชั่นความน่าจะเป็น ปัญหาสามารถทำให้ง่ายขึ้นเป็น: สำหรับการถดถอยที่U ~ ฉัน ผม d N ( 0 , σ 2 I ) , aและbเป็นพารามิเตอร์ สมมติว่าYมีสัมประสิทธิ์คซึ่งเท่ากับเอกภาพ จากนั้นฟังก์ชันความน่าจะเป็นในพื้นที่ของc , a , b จะมีสันตามแนวรังสีที่สอดคล้องกับเวกเตอร์ของพารามิเตอร์ที่แท้จริงและสเกลาร์คูณของมันY= a + Xb + uY=a+Xข+ยูY=a+Xb+uU ~ ฉัน ผม d. ยังไม่มีข้อความ( 0 , σ2ผม)ยู~ผม.ผม.d.ยังไม่มีข้อความ(0,σ2ผม)u \sim i.i.d. N(0,\sigma^2I)aaaขขbYYYคคcc , a , bค,a,ขc, a,b. เมื่อพิจารณาเฉพาะสถานที่ที่กำหนดโดยฟังก์ชันความน่าจะเป็นจะมีค่าสูงสุดเฉพาะ ณ จุดที่รังสีตัดผ่านระนาบนั้นc = 1ค=1c=1 …

1
Bayesian, MDL หรือ ML ตีความการตรวจสอบข้าม?
มีการตีความ Bayesian, ML หรือ MDL ใด ๆ ของการตรวจสอบความถูกต้องข้าม? ฉันสามารถตีความการตรวจสอบไขว้เป็นการดำเนินการอัปเดตที่ถูกต้องในงานประดิษฐ์ที่เฉพาะเจาะจงมาก่อนได้หรือไม่?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.