คำถามติดแท็ก bayesian

การอนุมานแบบเบย์เป็นวิธีการอนุมานเชิงสถิติที่อาศัยการรักษาพารามิเตอร์แบบจำลองเป็นตัวแปรสุ่มและการใช้ทฤษฎีบทของเบส์เพื่ออนุมานความน่าจะเป็นแบบอัตนัยเกี่ยวกับพารามิเตอร์หรือสมมติฐานตามเงื่อนไขบนชุดข้อมูลที่สังเกต

1
การประมาณแบบเบย์ที่มี "แบนก่อน" เหมือนกับการประเมินความเป็นไปได้สูงสุดหรือไม่?
ในสายวิวัฒนาการต้นไม้ phylogenetic มักถูกสร้างขึ้นโดยใช้ MLE หรือการวิเคราะห์แบบเบย์ อาจเกิดการแบนก่อนใช้ในการประเมินแบบเบย์ ตามที่ฉันเข้าใจแล้วการประมาณการแบบเบย์เป็นการประมาณการความเป็นไปได้ที่จะรวมเอาการประเมินก่อนหน้านี้ คำถามของฉันคือถ้าคุณใช้ความคิดก่อนหน้านี้มันแตกต่างจากการวิเคราะห์ความน่าจะเป็นหรือไม่?

1
เลือก Priors ตามข้อผิดพลาดการวัด
คุณคำนวณค่าที่เหมาะสมก่อนว่าคุณมีข้อผิดพลาดในการวัดของเครื่องมืออย่างไร ย่อหน้านี้มาจากหนังสือของ Cressie "สถิติสำหรับข้อมูล Spatio-Temporal": มักจะเป็นกรณีที่ข้อมูลก่อนหน้านี้บางส่วนมีอยู่เกี่ยวกับความแปรปรวนของการวัด - ข้อผิดพลาดทำให้สามารถระบุรูปแบบพารามิเตอร์ที่มีข้อมูลที่ค่อนข้างยุติธรรม ตัวอย่างเช่นถ้าเราสมมติว่าข้อผิดพลาดการวัดที่เป็นอิสระตามเงื่อนไขคือ iid Gau(0,σ2ϵ)Gau(0,σϵ2)Gau(0, \sigma_{\epsilon}^2)จากนั้นเราควรระบุข้อมูลก่อน σ2ϵσϵ2\sigma_{\epsilon}^2. สมมติว่าเราสนใจอุณหภูมิของอากาศแวดล้อมและเราเห็นว่าข้อกำหนดของผู้ผลิตเครื่องมือระบุว่า "ผิดพลาด"±0.1°C±0.1°C±0.1°C. สมมติว่า "ข้อผิดพลาด" นี้สอดคล้องกับ 2 ส่วนเบี่ยงเบนมาตรฐาน (สมมติฐานที่ควรตรวจสอบ!) เราอาจระบุให้มีค่าเฉลี่ยก่อนหน้า . เนื่องจากข้อกำหนดของผู้ผลิตเครื่องมือเราจะถือว่าการกระจายที่มีจุดสูงสุดที่ชัดเจนและค่อนข้างแคบที่ 0.0025 (เช่นแกมมาผกผัน) อันที่จริงเราสามารถแก้ไขได้ที่ 0.0025; อย่างไรก็ตามข้อผิดพลาดของตัวแบบข้อมูลอาจมีองค์ประกอบอื่นที่มีความไม่แน่นอนเช่นกัน (มาตรา 7.1) เพื่อหลีกเลี่ยงปัญหาในการระบุตัวตนที่เป็นไปได้กับข้อผิดพลาดของกระบวนการแบบจำลองมันเป็นสิ่งสำคัญมากที่ผู้สร้างแบบจำลองจะลดความไม่แน่นอนให้มากที่สุดเท่าที่วิทยาศาสตร์อนุญาตรวมถึงการศึกษาด้านการออกแบบข้อมูลσ2ϵσϵ2\sigma_{\epsilon}^{2}(0.1/2)2=0.0025(0.1/2)2=0.0025(0.1/2)^2 = 0.0025 ไม่มีใครรู้ว่าขั้นตอนทั่วไปที่จะได้รับค่าของก่อนหน้าตามที่อธิบายไว้ข้างต้น (แม้ว่าย่อหน้าเท่านั้นหมายถึงการได้รับค่าเฉลี่ยก่อนหน้า)?

4
“ การกระจายตัวที่เป็นบวกอย่างเคร่งครัด” คืออะไร?
ฉันกำลังอ่าน "Causality" ของ Judea Pearl (รุ่นที่สอง 2009) และในส่วนที่ 1.1.5 ความเป็นอิสระและเงื่อนไขแบบกราสด์เขากล่าวว่า: ต่อไปนี้เป็นรายการ (บางส่วน) ของคุณสมบัติที่พึงพอใจโดยความสัมพันธ์ที่เป็นอิสระตามเงื่อนไข (X_ || _Y | Z) สมมาตร: (X_ || _ Y | Z) ==> (Y_ || _X | Z) การสลายตัว: (X_ || _ YW | Z) ==> (X_ || _Y | Z) การรวมที่อ่อนแอ: (X_ || _ YW | …

2
การวิเคราะห์แบบเบส์ของตารางฉุกเฉิน: วิธีการอธิบายขนาดผลกระทบ
ฉันกำลังทำงานผ่านตัวอย่างในการวิเคราะห์ข้อมูล Doing Bayesianของ Kruschke โดยเฉพาะการวิเคราะห์ความแปรปรวนแบบปัวซองในพัวซอง 22 ซึ่งเขานำเสนอเป็นทางเลือกแทนการทดสอบไคสแควร์เป็นประจำสำหรับความเป็นอิสระสำหรับตารางฉุกเฉิน ฉันสามารถดูวิธีที่เราได้รับข้อมูลเกี่ยวกับการโต้ตอบที่เกิดขึ้นบ่อยหรือน้อยกว่าที่คาดไว้ถ้าตัวแปรนั้นเป็นอิสระ (เช่นเมื่อ HDI ไม่รวมศูนย์) คำถามของฉันคือฉันจะคำนวณหรือตีความขนาดผลกระทบในกรอบงานนี้ได้อย่างไร ยกตัวอย่างเช่น Kruschke เขียน "การรวมกันของดวงตาสีฟ้ากับผมสีดำเกิดขึ้นน้อยกว่าที่คาดถ้าสีตาและสีผมเป็นอิสระ" แต่เราจะอธิบายความแข็งแกร่งของความสัมพันธ์นั้นได้อย่างไร? ฉันจะรู้ได้อย่างไรว่าการโต้ตอบใดที่รุนแรงกว่าการโต้ตอบอื่น ๆ หากเราทำการทดสอบไคสแควร์ของข้อมูลเหล่านี้เราอาจคำนวณCramér V เป็นเครื่องวัดขนาดเอฟเฟกต์โดยรวม ฉันจะแสดงขนาดลักษณะพิเศษในบริบทเบย์นี้ได้อย่างไร นี่คือตัวอย่างที่มีในตัวเองจากหนังสือ (เขียนในR) ในกรณีที่คำตอบถูกซ่อนจากฉันในสายตาธรรมดา ... df <- structure(c(20, 94, 84, 17, 68, 7, 119, 26, 5, 16, 29, 14, 15, 10, 54, 14), .Dim = c(4L, 4L), .Dimnames …

3
ทำความเข้าใจเกี่ยวกับการทำนายแบบเบย์
ฉันกำลังเรียนหลักสูตร Intro to Bayes และฉันมีความยากลำบากในการเข้าใจการกระจายการทำนาย ฉันเข้าใจว่าทำไมพวกเขาถึงมีประโยชน์และฉันคุ้นเคยกับคำจำกัดความ แต่มีบางสิ่งที่ฉันไม่ค่อยเข้าใจ 1) วิธีรับการแจกแจงการทำนายที่ถูกต้องสำหรับเวกเตอร์ของการสังเกตใหม่ สมมติว่าเราได้สร้างแบบจำลองตัวอย่าง p(yi|θ)p(yi|θ)p(y_i | \theta) สำหรับข้อมูลและก่อน p(θ)p(θ)p(\theta). สมมติว่าข้อสังเกตyiyiy_i มีความเป็นอิสระตามเงื่อนไข θθ\theta. เราสังเกตข้อมูลบางอย่างแล้ว D={y1,y2,...,yk}D={y1,y2,...,yk}\mathcal{D} = \{y_1, y_2, \, ... \, , y_k\}และเราอัปเดตก่อนหน้าของเรา p(θ)p(θ)p(\theta) เพื่อหลัง p(θ|D)p(θ|D)p(\theta | \mathcal{D}). หากเราต้องการทำนายเวกเตอร์ของการสังเกตใหม่ N={y~1,y~2,...,y~n}N={y~1,y~2,...,y~n}\mathcal{N} = \{\tilde{y}_1, \tilde{y}_2, \, ... \, , \tilde{y}_n\}ฉันคิดว่าเราควรพยายามทำนายการใช้สูตรนี้ p(N|D)=∫p ( θ | D ) p …

3
เหตุใดทฤษฎีบทของเบย์จึงใช้งานกราฟิกได้
จากมุมมองทางคณิตศาสตร์ทฤษฎีบท Bayes 'ทำให้รู้สึกที่สมบูรณ์แบบสำหรับฉัน (เช่นการสืบและการพิสูจน์) แต่สิ่งที่ฉันไม่ทราบว่ามีหรือไม่มีอาร์กิวเมนต์ทางเรขาคณิตหรือกราฟิกที่ดีที่สามารถแสดงเพื่ออธิบายทฤษฎีบทของ Bayes ฉันลอง Googling ไปรอบ ๆ เพื่อหาคำตอบและก็แปลกใจที่ฉันไม่พบอะไรเลย

2
เครื่องแบบก่อนหน้านำไปสู่การประมาณการเดียวกันจากโอกาสสูงสุดและโหมดหลังได้อย่างไร?
ฉันกำลังศึกษาวิธีการประมาณค่าแบบจุดต่าง ๆ และอ่านว่าเมื่อใช้การประมาณค่า MAP กับ ML เมื่อเราใช้ "ชุดรูปแบบก่อนหน้า" ค่าประมาณจะเท่ากัน ใครสามารถอธิบายสิ่งที่ "เหมือนกัน" ก่อนหน้านี้และให้ตัวอย่าง (ง่าย) บางอย่างของเมื่อ MAP และ ML ประมาณจะเหมือนกัน?

1
วางก่อนหน้านี้ในพารามิเตอร์ความเข้มข้นในกระบวนการ Dirichlet
ส่วนใหญ่นี้เป็นพื้นหลังข้ามไปที่สิ้นสุดถ้าคุณรู้อยู่แล้วว่าเพียงพอเกี่ยวกับ Dirichlet ผสมกระบวนการ สมมติว่าฉันกำลังสร้างแบบจำลองข้อมูลบางส่วนที่มาจากส่วนผสมของกระบวนการ Dirichlet คือปล่อยให้และมีเงื่อนไขในถือว่าF∼D(αH)F∼D(αH)F \sim \mathcal D(\alpha H)FFFYi∼iid∫f(y|θ)F(dθ).Yi∼iid∫f(y|θ)F(dθ).Y_i \stackrel {iid}{\sim} \int f(y | \theta) F(d\theta). ที่นี่และเป็นหน่วยวัดพื้นฐานก่อน ปรากฎว่าถ้าสำหรับการสังเกตแต่ละครั้งถ้าฉันรู้ว่าแฝงที่เกี่ยวข้องความน่าจะเป็นของในรุ่นนี้คือโดยที่คือจำนวนค่าที่แตกต่างของ (การวัดแบบสุ่มเป็นแบบแยกส่วนโดยสิ้นเชิง) Escobar และ Westพัฒนารูปแบบต่อไปนี้สำหรับการสุ่มตัวอย่างโดยใช้แกมมาก่อนหน้า; ก่อนอื่นพวกเขาเขียนα>0α>0\alpha > 0αHαH\alpha HYiYiY_iθiθi\theta_iαα\alphaL(α|t)∝αtΓ(α)Γ(α+n)L(α|t)∝αtΓ(α)Γ(α+n)L(\alpha | t) \propto \frac{\alpha^t\Gamma(\alpha)}{\Gamma(\alpha + n)}tttθiθi\theta_iFFFαα\alphaπ(α|t)∝π(α)αtΓ(α)Γ(α+n)∝π(α)αt−1(α+n)B(α+1,n)=π(α)αt−1(α+n)∫10xα(1−x)n−1 dx,π(α|t)∝π(α)αtΓ(α)Γ(α+n)∝π(α)αt−1(α+n)B(α+1,n)=π(α)αt−1(α+n)∫01xα(1−x)n−1 dx, \pi(\alpha | t) \propto \pi(\alpha) \frac{\alpha^t\Gamma(\alpha)}{\Gamma(\alpha + n)} \propto \pi(\alpha)\alpha^{t - 1}(\alpha + n){B(\alpha + …

1
อะไรคือความแตกต่างระหว่างวิธีการของผู้ใช้บ่อยกับการวิเคราะห์อภิมานและวิธีการแบบเบย์
สมมติว่าฉันกำลังทำการวิเคราะห์โดยดูที่มาตรวัดด้านสุขภาพ ฉันสนใจในความแตกต่างของการวัดระหว่างผู้ป่วยกับการควบคุมและความแตกต่างนั้นแตกต่างจาก 0 หรือไม่เคยมีการศึกษามาก่อนในการมองคำถามการวิจัยและการวัดด้านสุขภาพที่เหมือนกัน ในการวิเคราะห์แบบเบย์ของฉันฉันจะสร้างการกระจายก่อนหน้าโดยอิงจากการศึกษาก่อนหน้าซึ่งรวมความแตกต่างเฉลี่ยและข้อผิดพลาดมาตรฐาน โปรดยกโทษให้ฉันถ้านี่เป็นคำถามที่มือใหม่ที่ฉันเพิ่งเรียนรู้สถิติแบบเบย์ แต่ในทางที่ผลลัพธ์จากการวิเคราะห์แบบเบย์ของฉันจะแตกต่างจากผลลัพธ์ที่ฉันจะได้รับโดยใช้การวิเคราะห์ meta-analysis การศึกษาก่อนหน้ากับข้อมูลปัจจุบันของฉัน ?

2
ตำราเรียนเบื้องต้นเกี่ยวกับแบบจำลองที่ไม่ใช่พารามิเตอร์แบบเบส์?
ฉันต้องการปิดหัวของฉันในหัวข้อนี้ แต่การเรียนรู้จากเอกสารและแบบฝึกหัดนั้นยากเพราะมีช่องว่างมากมายที่มักจะถูกเติมในตำราเรียน ถ้ามันเป็นสิ่งสำคัญที่ฉันมีพื้นหลังทางคณิตศาสตร์ที่ค่อนข้างแข็งแกร่งเหมือนที่ฉันทำปริญญาเอกของฉัน ในคณิตศาสตร์ประยุกต์ (CFD จะแม่นยำยิ่งขึ้น)

2
สแตนทำโปสเตอร์ทายผลล่วงหน้าได้หรือไม่?
สแตน (โดยเฉพาะอย่างยิ่ง rstan) มีสิ่งอำนวยความสะดวกในตัวเพื่อสร้างการกระจายหลังที่ทำนายได้หรือไม่? มันไม่ยากที่จะสร้างการกระจายจากสแตนพอดี แต่ฉันไม่อยากประดิษฐ์ล้อ

2
“ หลงลืม” จากก่อนหน้านี้ในการตั้งค่า Bayesian?
เป็นที่ทราบกันดีว่าเมื่อคุณมีหลักฐานมากขึ้น (พูดในรูปของมีขนาดใหญ่กว่าสำหรับตัวอย่าง iid) Bayesian ก่อนหน้านี้จะ "ลืม" และการอนุมานส่วนใหญ่ได้รับผลกระทบจากหลักฐาน (หรือโอกาส)nnnnnn มันง่ายที่จะเห็นมันสำหรับกรณีเฉพาะต่าง ๆ (เช่น Bernoulli กับรุ่นเบต้าก่อนหรือประเภทอื่น ๆ ) - แต่มีวิธีดูในกรณีทั่วไปด้วยและก่อนไหมx1,…,xn∼p(x|μ)x1,...,xn~พี(x|μ)x_1,\ldots,x_n \sim p(x|\mu)p(μ)พี(μ)p(\mu) แก้ไข: ฉันเดาว่าจะไม่สามารถแสดงในกรณีทั่วไปสำหรับก่อนหน้านี้ใด ๆ (ตัวอย่างเช่นมวลจุดก่อนหน้าจะทำให้มวลหลังจุด) แต่อาจมีเงื่อนไขบางอย่างที่ถูกลืมไปก่อน นี่คือ "เส้นทาง" ที่ฉันคิดเกี่ยวกับการแสดงบางอย่างเช่นนั้น: สมมติว่าพื้นที่พารามิเตอร์คือ ΘΘ\Thetaและปล่อยให้ p(θ)พี(θ)p(\theta) และ q(θ)Q(θ)q(\theta) เป็นนักบวชสองคนที่วางมวลความน่าจะไม่เป็นศูนย์ไว้สำหรับทุกคน ΘΘ\Theta. ดังนั้นการคำนวณหลังทั้งสองสำหรับจำนวนเงินก่อนหน้านี้ไปที่: p(θ|x1,…,xn)=∏ip(xi|θ)p(θ)∫θ∏ip(xi|θ)p(θ)dθพี(θ|x1,...,xn)=Πผมพี(xผม|θ)พี(θ)∫θΠผมพี(xผม|θ)พี(θ)dθp(\theta | x_1,\ldots,x_n) = \frac{\prod_i p(x_i | \theta) p(\theta)}{\int_{\theta} \prod_i p(x_i | \theta) p(\theta) d\theta} …
9 bayesian  prior 

2
การกระจายในส่วนย่อยของหรือไม่
ฉันสงสัยว่าถ้ามีทุกประเภทของการกระจายมาตรฐานในส่วนย่อยของจำนวนเต็มใด ๆ\} เท่าที่เราจะได้แสดงนี้เป็นการกระจายบนเป็นเวกเตอร์ความยาวของผลไบนารีเช่นถ้าแล้วสอดคล้องกับเวกเตอร์1){1,2,...,J}{1,2,...,J}\{1, 2, ..., J\}JJJJ=5J=5J = 5{1,3,5}{1,3,5}\{1, 3, 5\}(1,0,1,0,1)(1,0,1,0,1)(1, 0, 1, 0, 1) สิ่งที่ฉันกำลังมองหาคือการกระจายตัวซึ่งมาจากครอบครัวที่จัดทำดัชนีโดยพารามิเตอร์มิติ จำกัดที่จะกระจายมวลของมันในวิธีที่เวกเตอร์ไบนารีสองและจะมีความคล้ายคลึงกัน ความน่าจะเป็นถ้าพวกเขา "ปิด" ด้วยกันเช่นและมีความน่าจะเป็นที่คล้ายกัน จริงๆสิ่งที่ผมมุ่งมั่นที่จะทำหวังว่าจะใส่ก่อนในเช่นว่าถ้าฉันรู้ว่าที่มีขนาดใหญ่พอสมควรแล้วเป็นญาติอาจจะมีขนาดใหญ่เพื่อเวกเตอร์ห่างไกลจากr_1νθ(⋅)νθ(⋅)\nu_\theta (\cdot)θθ\thetar1r1r_1r2r2r_2r1=(0,0,1,0,1)r1=(0,0,1,0,1)r_1 = (0, 0, 1, 0, 1)r2=(0,0,1,1,1)r2=(0,0,1,1,1)r_2 = (0, 0, 1, 1, 1)θθ\thetaνθ(r1)νθ(r1)\nu_\theta (r_1)νθ(r2)νθ(r2)\nu_\theta (r_2)r1r1r_1 กลยุทธ์อย่างหนึ่งที่อยู่ในใจก็คือการวางมาตรวัดหรือการวัดการกระจายตัวอื่น ๆ บนบนจากนั้นใช้หรืออะไรที่คล้ายกัน ตัวอย่างที่ชัดเจนจะเป็นในการเปรียบเทียบกับการแจกแจงแบบปกติ ไม่เป็นไร แต่ฉันหวังว่าจะมีสิ่งที่เป็นมาตรฐานและคล้อยตามการวิเคราะห์แบบเบย์ ด้วยสิ่งนี้ฉันไม่สามารถเขียนค่าคงที่ normalizing ได้dθdθd_\theta{0,1}J{0,1}J\{0, 1\}^Jνθ(r)∝exp(−dθ(r,μ))νθ(r)∝exp⁡(−dθ(r,μ))\nu_\theta (r) \propto \exp (-d_\theta (r, …

2
พารามิเตอร์การบูตแบบกึ่งพารามิเตอร์และแบบไม่มีพารามิเตอร์สำหรับรุ่นผสม
ตัดต่อไปนี้จะนำมาจากบทความนี้ ฉันเป็นมือใหม่ในการบู๊ตสแตรปและพยายามที่จะใช้การบู๊ตสแปปปิ้งแบบกึ่งพารามิเตอร์แบบกึ่งพารามิเตอร์และแบบไม่มีพารามิเตอร์สำหรับแบบจำลองเชิงเส้นผสมกับR bootแพ็คเกจ รหัส R นี่คือRรหัสของฉัน: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn <- function(data, indices){ data <- data[indices, ] mod <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=data) fixef(mod) } set.seed(12345) Out <- boot(data=Cultivation, statistic=boot.fn, R=99) …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 

3
การใช้เหตุผลบ่อยครั้งและการปรับเงื่อนไขในการสังเกต (ตัวอย่างจาก Wagenmakers และคณะ)
ฉันไม่ใช่ผู้เชี่ยวชาญด้านสถิติ แต่ฉันรวบรวมว่ามีความขัดแย้งไม่ว่าการตีความ "ความเป็นไปได้" หรือ "เบย์" เป็นความน่าจะเป็น "ขวา" หรือไม่ จากWagenmakers และ อัลพี 183: พิจารณาการแจกแจงแบบสม่ำเสมอด้วยค่าเฉลี่ย μμ\mu และความกว้าง 111. วาดค่าสองค่าแบบสุ่มจากการแจกแจงเลเบลค่าที่เล็กที่สุดsss และที่ใหญ่ที่สุด ล.ล.lและตรวจสอบว่าค่าเฉลี่ย μμ\mu อยู่ในระหว่าง sss และ ล.ล.l. หากขั้นตอนนี้ซ้ำหลายครั้งค่าเฉลี่ยμμ\mu จะอยู่ในระหว่าง sss และ ล.ล.lในครึ่งหนึ่งของกรณี ดังนั้น,( s , l )(s,ล.)(s, l) ให้ช่วงความมั่นใจเป็นประจำ 50% สำหรับ μμ\mu. แต่สมมติว่าสำหรับการจับรางวัลโดยเฉพาะs = 9.8s=9.8s = 9.8 และ l = 10.7ล.=10.7l = 10.7. …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.