คำถามติดแท็ก posterior

หมายถึงการแจกแจงความน่าจะเป็นของพารามิเตอร์ที่กำหนดเงื่อนไขบนข้อมูลในสถิติแบบเบย์

3
ช่วยฉันเข้าใจการแจกแจงแบบเบย์ก่อนและหลัง
ในกลุ่มนักเรียนมี 2 จาก 18 คนที่ถนัดซ้าย ค้นหาการกระจายด้านหลังของนักเรียนที่ถนัดซ้ายในประชากรที่คาดไม่ถึงมาก่อน สรุปผลลัพธ์ ตามวรรณกรรม 5-20% ของคนถนัดซ้าย นำข้อมูลนี้ไปพิจารณาก่อนและคำนวณหลังใหม่ ฉันรู้ว่าควรใช้การกระจายเบต้าที่นี่ ก่อนอื่นด้วยค่าและเป็น 1? สมการที่ฉันพบในวัสดุสำหรับด้านหลังคือαα\alphaββ\beta π(r|Y)∝r(Y+−1)×(1−r)(N−Y+−1)π(r|Y)∝r(Y+−1)×(1−r)(N−Y+−1)\pi(r \vert Y ) \propto r^{(Y +−1)} \times (1 − r)^{(N−Y +−1)} \\ Y=2Y=2Y=2N = 18 ,N=18N=18N=18 ทำไมในสมการนั้น? (แสดงถึงสัดส่วนของคนซ้ายส่ง) ไม่เป็นที่รู้จักดังนั้นมันจะอยู่ในสมการนี้ได้อย่างไร? สำหรับผมแล้วมันดูเหมือนว่าไร้สาระในการคำนวณรับและใช้ในสมการให้Rดีกับตัวอย่างผลที่ได้0,0019ฉันควรจะได้ข้อสรุปจากที่?rrrrrrrrrYYYrrrrrrr=2/18r=2/18r=2/180,00190,00190,0019fff สมการที่ให้ค่าคาดหวังของทราบและทำงานได้ดีขึ้นและให้ซึ่งฟังต้อง สมการเป็นE (R | X, N, α, β) = (α + X) / (α …

1
การตรวจสอบแบบคาดการณ์ล่วงหน้าคืออะไรและอะไรทำให้มีประโยชน์
ฉันเข้าใจว่าการกระจายการคาดการณ์หลังคืออะไรและฉันได้อ่านเกี่ยวกับการตรวจสอบการคาดการณ์หลังแม้ว่ามันจะไม่ชัดเจนสำหรับฉันว่ามันทำอะไร การตรวจสอบการคาดการณ์หลังคืออะไร? เหตุใดผู้เขียนบางคนกล่าวว่าการเรียกใช้การตรวจสอบการคาดการณ์หลังคือ "ใช้ข้อมูลสองครั้ง" และไม่ควรถูกทำร้าย (หรือแม้กระทั่งว่าไม่ใช่ Bayesian)? (เช่นดูสิ่งนี้หรือสิ่งนี้ ) การตรวจสอบนี้มีประโยชน์อะไรบ้าง? สามารถใช้กับการเลือกแบบจำลองได้จริงหรือไม่? (เช่นมีปัจจัยทั้งในเรื่องความฟิตและความซับซ้อนของโมเดลหรือไม่)

3
อะไรคือความแตกต่างระหว่างการกระจายการทำนายหลังและการสะท้อนกลับ?
ฉันเข้าใจว่า Posterior คืออะไร แต่ฉันไม่แน่ใจว่าอันหลังหมายถึงอะไร 2 แตกต่างกันอย่างไร เควินเมอร์ฟี่ย์ P ระบุไว้ในตำราเรียนของเขา: การเรียนรู้ของเครื่อง: มุมมองที่น่าจะเป็น , นั่นคือ "รัฐความเชื่อภายใน" นั่นหมายความว่าอย่างไร ฉันอยู่ภายใต้การแสดงผลที่ว่าก่อนหน้านี้แสดงถึงความเชื่อหรืออคติภายในของคุณฉันจะไปไหน

3
วิธีที่ไม่เหมาะสมก่อนนำไปสู่การกระจายหลังที่เหมาะสมได้อย่างไร
เรารู้ว่าในกรณีที่มีการกระจายก่อนที่เหมาะสม P( θ ∣ X) = P( X| θ ) P(θ )P( X)P(θ∣X)=P(X∣θ)P(θ)P(X)P(\theta \mid X) = \dfrac{P(X \mid \theta)P(\theta)}{P(X)} )α P(X∣ θ) P( θ )∝P(X∣θ)P(θ) \propto P(X \mid \theta)P(\theta) เหตุผลปกติสำหรับขั้นตอนนี้ก็คือการกระจายตัวของ , P ( X )นั้นคงที่เมื่อเทียบกับθและสามารถถูกละเว้นได้เมื่อได้รับการแจกแจงหลังXXXP(X)P(X)P(X)θθ\theta อย่างไรก็ตามในกรณีที่ไม่เหมาะสมมาก่อนคุณจะรู้ได้อย่างไรว่าการกระจายหลังมีอยู่จริง? ดูเหมือนจะมีบางสิ่งที่ขาดหายไปในข้อโต้แย้งที่เป็นวงกลม กล่าวอีกนัยหนึ่งถ้าฉันคิดว่ามีอยู่หลังฉันเข้าใจกลไกของการได้รับมา แต่ฉันดูเหมือนจะหายไปในทางทฤษฎีเหตุผลว่าทำไมมันถึงมีอยู่ ป.ล. ฉันยังรับรู้ว่ามีบางกรณีที่ก่อนหน้านี้ไม่เหมาะสมนำไปสู่การหลังที่ไม่เหมาะสม

6
ด้านหลังแตกต่างจากก่อนและมีโอกาสมาก
หากก่อนหน้านี้และโอกาสที่แตกต่างกันมากจากนั้นบางครั้งสถานการณ์ที่เกิดขึ้นที่หลังหลังจะไม่เหมือนกัน ดูตัวอย่างภาพนี้ซึ่งใช้การแจกแจงแบบปกติ แม้ว่านี่จะถูกต้องในเชิงคณิตศาสตร์ แต่ดูเหมือนว่าจะไม่สอดคล้องกับสัญชาตญาณของฉัน - ถ้าข้อมูลไม่ตรงกับความเชื่อหรือข้อมูลที่จัดขึ้นอย่างรุนแรงของฉัน ทั้งช่วงหรือบางทีการกระจาย bimodal รอบก่อนและโอกาส (ฉันไม่แน่ใจซึ่งทำให้รู้สึกตรรกะเพิ่มเติม) แน่นอนว่าฉันจะไม่คาดหวังว่าคนหลังแน่นหนาในช่วงที่ไม่ตรงกับความเชื่อหรือข้อมูลของฉัน ฉันเข้าใจว่าเมื่อมีการรวบรวมข้อมูลมากขึ้นผู้หลังจะย้ายไปสู่ความเป็นไปได้ แต่ในสถานการณ์เช่นนี้ดูเหมือนว่าจะตอบโต้ได้ง่าย คำถามของฉันคือ: ความเข้าใจของฉันเกี่ยวกับสถานการณ์นี้มีข้อบกพร่องอย่างไร (หรือมีข้อบกพร่อง) ด้านหลังเป็นฟังก์ชัน `ถูกต้อง 'สำหรับสถานการณ์นี้หรือไม่ และถ้าไม่ทำเช่นนั้น เพื่อประโยชน์ครบถ้วนก่อนที่จะได้รับเป็นและความน่าจะเป็น0.4)N ( μ = 6.1 , σ = 0.4 )ยังไม่มีข้อความ( μ = 1.5 , σ= 0.4 )ยังไม่มีข้อความ(μ=1.5,σ=0.4)\mathcal{N}(\mu=1.5, \sigma=0.4)ยังไม่มีข้อความ( μ = 6.1 , σ= 0.4 )ยังไม่มีข้อความ(μ=6.1,σ=0.4)\mathcal{N}(\mu=6.1, \sigma=0.4) แก้ไข: ดูคำตอบที่ได้รับฉันรู้สึกว่าฉันไม่ได้อธิบายสถานการณ์ได้ดีนัก ประเด็นของฉันคือการวิเคราะห์แบบเบย์ดูเหมือนจะให้ผลลัพธ์ที่ไม่เป็นไปตามสัญชาตญาณเนื่องจากข้อสมมติฐานในแบบจำลอง ความหวังของฉันคือการที่หลังผู้ใดจะ …

5
หลังเบย์ต้องมีการกระจายที่เหมาะสมหรือไม่?
ฉันรู้ว่านักบวชไม่จำเป็นต้องเหมาะสมและฟังก์ชั่นความน่าจะเป็นไม่ได้รวมเข้ากับ 1 เช่นกัน แต่คนหลังต้องมีการกระจายตัวที่เหมาะสมหรือไม่? อะไรคือความหมายถ้ามัน / ไม่

2
อะไรคือสิ่งที่ / นัยในสถิติบ่อย ๆ คืออะไร?
ฉันเคยได้ยินความคิดที่ว่าเจย์เนสอ้างว่าผู้ใช้บ่อยใช้งานด้วย "โดยปริยายมาก่อน" นักบวชโดยนัยคืออะไรหรือ นี่หมายความว่าแบบจำลองผู้ใช้ประจำเป็นกรณีพิเศษทั้งหมดของแบบจำลอง Bayesian ที่รอการค้นพบหรือไม่?

2
วิธีการประยุกต์ใช้ทฤษฎีบทของเบย์กับการค้นหาชาวประมงที่หายไปในทะเล
บทความThe Odds, อัปเดตอย่างต่อเนื่องกล่าวถึงเรื่องราวของชาวประมงที่ลองไอส์แลนด์ที่แท้จริงเป็นหนี้ชีวิตของเขาเพื่อสถิติเบย์ นี่เป็นเวอร์ชั่นย่อ: มีชาวประมงสองคนอยู่บนเรือกลางดึก ในขณะที่คนหนึ่งหลับไปอีกคนหนึ่งก็ตกลงไปในมหาสมุทร เรือยังคงหมุนรอบอัตโนมัติตลอดทั้งคืนจนกระทั่งในที่สุดชายคนแรกก็ตื่นขึ้นมาและแจ้งให้หน่วยยามฝั่งทราบ Coast Guard ใช้ชิ้นส่วนของซอฟต์แวร์ที่เรียกว่าSAROPS (ระบบค้นหาและกู้ภัยที่เหมาะสมที่สุดในการวางแผน)เพื่อค้นหาเขาทันเวลาเนื่องจากเขาเป็นคนที่มีอุณหภูมิและมีพลังงานเหลือพอที่จะลอยได้ นี่คือรุ่นยาว: Speck In The Sea ฉันต้องการทราบเพิ่มเติมเกี่ยวกับวิธีการใช้ทฤษฎีบทของเบย์ที่นี่จริง ๆ ฉันพบข้อมูลเกี่ยวกับซอฟต์แวร์ SAROPS เพียงเล็กน้อยโดยใช้ Google โปรแกรมจำลอง SAROPS ส่วนประกอบของเครื่องจำลองจะพิจารณาข้อมูลที่ทันเวลาเช่นกระแสน้ำในมหาสมุทรลม ฯลฯ และจำลองเส้นทางล่องลอยที่เป็นไปได้หลายพันเส้นทาง จากเส้นทางดริฟท์เหล่านั้นจะสร้างแผนที่การกระจายความน่าจะเป็น โปรดทราบว่ากราฟิกต่อไปนี้ไม่ได้อ้างถึงกรณีของชาวประมงที่หายไปที่ฉันกล่าวถึงข้างต้น แต่เป็นตัวอย่างของเล่นที่นำมาจากงานนำเสนอนี้ Probability Map 1 (สีแดงแสดงถึงความน่าจะเป็นสูงสุด; สีน้ำเงินต่ำสุด) สังเกตวงกลมที่เป็นตำแหน่งเริ่มต้น Probability Map 2 - เวลาผ่านไปแล้ว โปรดทราบว่าแผนที่ความน่าจะเป็นกลายเป็นหลายรูปแบบ นั่นเป็นเพราะในตัวอย่างนี้มีการพิจารณาหลายสถานการณ์: บุคคลกำลังลอยอยู่ในน้ำ - โหมดบนกลาง บุคคลนั้นอยู่ในแพชูชีพ (ได้รับผลกระทบจากลมเหนือมากขึ้น) - โหมด …

2
เหตุใดจึงจำเป็นต้องสุ่มตัวอย่างจากการแจกแจงหลังถ้าเรารู้การกระจายตัวหลังแล้ว?
ความเข้าใจของฉันคือเมื่อใช้วิธีการแบบเบย์เพื่อประเมินค่าพารามิเตอร์: การกระจายหลังคือการรวมกันของการกระจายก่อนหน้าและการกระจายโอกาส เราจำลองสิ่งนี้โดยการสร้างตัวอย่างจากการแจกแจงด้านหลัง (เช่นการใช้อัลกอริทึม Metropolis-Hasting เพื่อสร้างค่าและยอมรับถ้าพวกเขาอยู่เหนือขีดจำกัดความน่าจะเป็นที่แน่นอนที่จะเป็นของการแจกแจงหลัง) เมื่อเราสร้างตัวอย่างนี้เราจะใช้มันเพื่อประมาณการกระจายตัวของหลังและสิ่งต่าง ๆ เช่นค่าเฉลี่ย แต่ฉันรู้สึกว่าฉันต้องเข้าใจผิดบางอย่าง ดูเหมือนว่าเรามีการแจกแจงด้านหลังแล้วสุ่มตัวอย่างจากนั้นใช้ตัวอย่างนั้นเป็นค่าประมาณของการแจกแจงหลัง แต่ถ้าเรามีการกระจายด้านหลังเพื่อเริ่มต้นด้วยเหตุใดเราจึงต้องสุ่มตัวอย่างจากมันถึงค่าประมาณ

4
กรอบการเรียนรู้แบบเบย์ดีกว่าในการตีความอย่างไรเมื่อเรามักใช้นักบวชที่ไม่เป็นทางการหรือเป็นอัตนัย
มันมักจะเป็นที่ถกเถียงกันอยู่ว่ากรอบการทำงานแบบเบย์มีประโยชน์อย่างมากในการตีความ (มากกว่าบ่อยครั้ง) เพราะมันคำนวณความน่าจะเป็นของพารามิเตอร์ที่กำหนดข้อมูล -แทนใน กรอบบ่อย จนถึงตอนนี้ดีมากp(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta) แต่สมการทั้งหมดขึ้นอยู่กับ: p(θ|x)=p(x|θ).p(θ)p(x)p(θ|x)=p(x|θ).p(θ)p(x)p(\theta|x) = {p(x|\theta) . p(\theta) \over p(x)} ฉันสงสัยเล็กน้อยด้วยเหตุผล 2 ประการ: ในเอกสารจำนวนมากมีการใช้ตัวพิมพ์ใหญ่แบบปกติ (การแจกแจงแบบสม่ำเสมอ) และใช้เพียงแค่ดังนั้น Bayesians จะได้ผลลัพธ์เช่นเดียวกับผู้ที่ได้รับบ่อย การตีความเมื่อเบย์หลังและบ่อยครั้งความน่าจะเป็นการแจกแจงเดียวกันคืออะไร? มันให้ผลลัพธ์ที่เหมือนกันp(θ|x)=p(x|θ)p(θ|x)=p(x|θ)p(\theta|x) = p(x|\theta) เมื่อใช้ข้อมูลที่มีค่าคุณจะได้รับผลลัพธ์ที่แตกต่างกัน แต่ Bayesian ได้รับผลกระทบจากบุคคลก่อนดังนั้นทั้งหมดจึงมีสีแบบอัตนัยเช่นกันp(θ|x)p(θ|x)p(\theta|x) กล่าวอีกนัยหนึ่งการโต้แย้งทั้งหมดของดีกว่าในการตีความมากกว่าp (x | \ theta) ที่สร้างขึ้นบนสมมุติฐานว่าp (\ theta)เป็น "จริง" ชนิดซึ่งปกติไม่ใช่มัน เป็นเพียงจุดเริ่มต้นที่เราเลือกที่จะทำให้การเรียกใช้ MCMC เป็นข้อสันนิษฐาน แต่ไม่ใช่คำอธิบายของความเป็นจริง (มันไม่สามารถนิยามได้ฉันคิด)p(θ|x)p(θ|x)p(\theta|x)p(x|θ)p(x|θ)p(x|\theta)p(θ)p(θ)p(\theta) แล้วเราจะเถียงได้อย่างไรว่าชาวเบเซียนนั้นดีกว่าในการตีความ?

1
หลังหลายตัวแปรปกติ
นี่เป็นคำถามง่าย ๆ แต่ฉันไม่สามารถหาที่มาที่ใดก็ได้บนอินเทอร์เน็ตหรือในหนังสือ ฉันต้องการที่จะเห็นการกำเนิดของวิธีการแบบเบย์หนึ่งปรับปรุงการกระจายปกติหลายตัวแปร ตัวอย่างเช่นลองจินตนาการว่า P(x|μ,Σ)P(μ)==N(μ,Σ)N(μ0,Σ0).P(x|μ,Σ)=N(μ,Σ)P(μ)=N(μ0,Σ0). \begin{array}{rcl} \mathbb{P}({\bf x}|{\bf μ},{\bf Σ}) & = & N({\bf \mu}, {\bf \Sigma}) \\ \mathbb{P}({\bf \mu}) &= & N({\bf \mu_0}, {\bf \Sigma_0})\,. \end{array} หลังจากการเฝ้าสังเกตชุดของ , ผมอยากจะคำนวณx_n}) ฉันรู้ว่าคำตอบคือ\ mathbb {P} ({\ bf \ mu | x_1 ... x_n}) = N ({\ bf \ mu_n}, {\ bf …

1
มีอะไรผิดปกติกับภาพประกอบนี้ของการกระจายหลังหรือไม่
ฉันมีภาพต่อไปนี้ซึ่งฉันได้รับการบอกเล่าว่าเป็นภาพประกอบของวิธีการแจกแจงความน่าจะเป็นหลังซึ่งเป็นการรวมกันของการแจกแจงก่อนหน้าและความน่าจะเป็น ฉันได้รับการบอกว่ามีบางอย่างผิดปกติกับภาพกล่าวคือการกระจายหลังไม่สามารถมีรูปแบบที่มันได้รับรูปแบบของฟังก์ชั่นความน่าจะเป็น แต่ฉันพยายามดิ้นรนที่จะคิดว่ามีอะไรผิดปกติกับภาพ หลังดูเหมือนว่าจะเป็นโอกาส แต่ดึงไปทางขวาโดยการกระจายก่อนหน้า สิ่งนี้ตรงกับความเข้าใจของฉันเกี่ยวกับสิ่งที่ควรเกิดขึ้นและเหมาะสม ไม่มีใครรู้ว่าสิ่งที่อาจจะผิดหรือเปล่า? ความคิดเดียวของฉันคือพื้นที่ด้านหลังอาจน้อยกว่าพื้นที่ภายใต้โอกาสเล็กน้อย สิ่งนี้ดูเหมือนจะเป็นเรื่องที่พิถีพิถันอย่างมากที่จะนำมาซึ่งแม้ว่าหลังดูเหมือนว่าจะอ้วนขึ้นกว่าความเป็นไปได้

1
วิธีการเปรียบเทียบแบบใดที่จะใช้สำหรับโมเดล lmer: lsmeans หรือ glht
ฉันกำลังวิเคราะห์ชุดข้อมูลโดยใช้โมเดลเอฟเฟกต์ผสมกับเอฟเฟ็กต์คงที่หนึ่งรายการ (เงื่อนไข) และเอฟเฟกต์แบบสุ่มสองรายการ (ผู้เข้าร่วมเนื่องจากการออกแบบภายในและคู่ของเรื่อง) รูปแบบที่ถูกสร้างขึ้นด้วยแพคเกจ:lme4exp.model<-lmer(outcome~condition+(1|participant)+(1|pair),data=exp) ต่อไปฉันทำการทดสอบอัตราส่วนความน่าจะเป็นของโมเดลนี้เทียบกับโมเดลโดยไม่มีผลกระทบคงที่ (เงื่อนไข) และมีความแตกต่างอย่างมีนัยสำคัญ ชุดข้อมูลของฉันมี 3 เงื่อนไขดังนั้นฉันจึงต้องการเปรียบเทียบหลายรายการ แต่ฉันไม่แน่ใจว่าจะใช้วิธีใด ฉันพบคำถามที่คล้ายกันจำนวนหนึ่งใน CrossValidated และฟอรัมอื่น ๆ แต่ฉันยังสับสนอยู่ จากสิ่งที่ฉันเห็นผู้คนแนะนำให้ใช้ 1.lsmeansแพคเกจ - lsmeans(exp.model,pairwise~condition)ซึ่งทำให้ผมส่งออกต่อไปนี้: condition lsmean SE df lower.CL upper.CL Condition1 0.6538060 0.03272705 47.98 0.5880030 0.7196089 Condition2 0.7027413 0.03272705 47.98 0.6369384 0.7685443 Condition3 0.7580522 0.03272705 47.98 0.6922493 0.8238552 Confidence level used: 0.95 $contrasts …

2
การประมาณค่าความแปรปรวนร่วมหลังของเกาวาสหลายตัวแปร
ฉันต้องการ "เรียนรู้" การกระจายตัวของเกาวาสแบบไบวารีที่มีตัวอย่างน้อย แต่เป็นสมมติฐานที่ดีเกี่ยวกับการแจกแจงก่อนหน้าดังนั้นฉันจึงต้องการใช้วิธีแบบเบส์ ฉันกำหนดก่อนหน้านี้: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ 0 & 27 \end{bmatrix} และการแจกแจงของฉันให้สมมติฐาน P(x|μ,Σ)∼N(μ,Σ)P(x|μ,Σ)∼N(μ,Σ) \mathbf{P}(x|\mathbf{\mu},\mathbf{\Sigma}) \sim \mathcal{N}(\mathbf{\mu},\mathbf{\Sigma}) μ=[00] Σ=[180018]μ=[00] Σ=[180018] \mathbf{\mu} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ …

4
MCMC เป็นวิธีการที่เหมาะสมหรือไม่เมื่อมีการประมาณค่าแบบโปสเตอร์สูงสุด
ฉันสังเกตเห็นว่าในแอปพลิเคชั่นที่ใช้งานได้จริงวิธีการที่ใช้ MCMC นั้นใช้ในการประมาณค่าพารามิเตอร์ถึงแม้ว่าส่วนหลังนั้นจะทำการวิเคราะห์ (ตัวอย่างเช่น สำหรับฉันมันสมเหตุสมผลกว่าที่จะใช้ตัวประมาณค่า MAP แทนที่จะเป็นตัวประมาณค่า MCMC ใครสามารถชี้ให้เห็นว่าทำไม MCMC ยังคงเป็นวิธีการที่เหมาะสมในการปรากฏตัวของผู้วิเคราะห์หลัง?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.