การทำความเข้าใจคอนจูเกตเบต้าก่อนการอนุมานแบบเบย์เกี่ยวกับความถี่


11

ต่อไปนี้เป็นข้อความที่ตัดตอนมาจาก Bolstad ของรู้เบื้องต้นเกี่ยวกับคชกรรมสถิติ

ฉันกำลังอ่านหนังสือ

สำหรับสิ่งที่คุณผู้เชี่ยวชาญออกมีนี้อาจจะมีเล็ก ๆ น้อย ๆ แต่ผมไม่เข้าใจว่าผู้เขียนสรุปว่าเราไม่ต้องทำใด ๆ รวมในการคำนวณความน่าจะเป็นหลังมูลค่าของบาง\ผมเข้าใจการแสดงออกที่สองซึ่งเป็นสัดส่วนและสถานที่ที่เงื่อนไขทั้งหมดมาจาก ( โอกาส x ก่อน) นอกจากนี้ฉันเข้าใจว่าเราไม่ต้องกังวลเกี่ยวกับตัวส่วนเนื่องจากตัวเศษมีสัดส่วนโดยตรง แต่ย้ายไปยังสมการที่สามเราไม่ลืมเกี่ยวกับตัวส่วนของกฎเบย์ มันไปไหน และค่าที่คำนวณโดยฟังก์ชันแกมม่านั้นไม่ใช่ค่าคงที่ใช่หรือไม่ ค่าคงที่ไม่ได้ยกเลิกในทฤษฎีบทเบย์หรือไม่π


5
มีค่าคงที่ที่เป็นไปได้เพียงค่าเดียวคือค่าที่ทำให้ฟังก์ชันมีความหนาแน่นของความน่าจะเป็น
ซีอาน

คำตอบ:


10

ประเด็นก็คือเรารู้ว่าส่วนหลังเป็นสัดส่วนกับอะไรและเกิดขึ้นที่เราไม่จำเป็นต้องทำการรวมเพื่อให้ได้ตัวส่วน (คงที่) เพราะเรารับรู้ว่าการแจกแจงที่มีฟังก์ชันความหนาแน่นของความน่าจะเป็นเป็นสัดส่วนกับ (เช่นหลัง) เป็นการแจกแจงแบบเบต้า เนื่องจากค่าคงที่ normalizing สำหรับไฟล์ PDF รุ่นเบต้าคือเราได้รับไฟล์ PDF หลังโดยไม่ต้องรวมเข้าด้วยกัน และใช่ค่าคงตัว normalizing ในทฤษฎีบท Bayes เป็นค่าคงที่ (จากข้อมูลที่สังเกตและค่าที่สันนิษฐานไว้ก่อนหน้า) เช่นเดียวกับค่า normalizing สำหรับความหนาแน่นหลังΓ ( α + β )xα1×(1x)β1Γ(α+β)Γ(α)Γ(β)


8

การตั้งค่า

คุณมีโมเดลนี้: ความหนาแน่นที่ f(p)=1

pbeta(α,β)x|pbinomial(n,p)
และโดยเฉพาะอย่างยิ่งทราบว่า
f(p)=1B(α,β)pα1(1p)β1
1
g(x|p)=(nx)px(1p)nx
1B(α,β)=Γ(α+β)Γ(α)Γ(β).

รุ่นโดยนัย

ตอนนี้ การกระจายหลังเป็นสัดส่วนกับก่อนคูณด้วยความน่าจะเป็นกรัมเราสามารถละเว้นค่าคงที่ (เช่นสิ่งที่ไม่ใช่ ), ให้ผล: g p h ( pfgp

h(p|x)f(p)g(p|x)=pα1(1p)β1pxpnx=pα+x1(1p)β+nx1.

นี่คือ 'รูปร่าง' ของการแจกแจงแบบเบต้าพร้อมพารามิเตอร์และและเรารู้ว่าค่าคงที่ normalizing ที่สอดคล้องกันสำหรับการแจกแจงแบบเบต้าด้วยพารามิเตอร์เหล่านั้นควรเป็นx) หรือในแง่ของฟังก์ชันแกมมา กล่าวอีกนัยหนึ่งเราสามารถทำได้ดีกว่าความสัมพันธ์แบบสัดส่วนโดยไม่ต้องมีมรดกพิเศษใด ๆ และตรงไปที่ความเสมอภาค: α+xβ+nx1/B(α+x,β+nx)

1B(α+x,β+nx)=Γ(n+α+β)Γ(α+x)Γ(β+nx).
h(p|x)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1.

ดังนั้นเราจึงสามารถใช้ความรู้เกี่ยวกับโครงสร้างของการแจกแจงแบบเบต้าเพื่อกู้คืนนิพจน์สำหรับคนหลังได้อย่างง่ายดายแทนที่จะต้องผ่านการรวมที่ยุ่งเหยิงและสิ่งที่คล้ายกัน

การเรียงลำดับของการได้รับรอบกับด้านหลังเต็มรูปแบบโดยการยกเลิกค่าคงที่ normalizing ของการกระจายข้อต่อซึ่งอาจทำให้เกิดความสับสน

รุ่นที่ชัดเจน

คุณสามารถบดขยี้สิ่งต่าง ๆ ออกมาเป็นขั้นตอนได้ซึ่งก็ชัดเจนกว่า

จริงๆแล้วมันไม่ได้นานกว่านั้นอีกแล้ว โปรดทราบว่าเราสามารถแสดงการแจกแจงร่วมเป็น และการกระจายตัวของเป็น

f(p)g(x|p)=1B(α,β)(nx)pα+x1(1p)β+nx1
x
01f(p)g(x|p)dp=1B(α,β)(nx)01pα+x1(1p)β+nx1dp=1B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+nx)

ดังนั้นเราสามารถแสดงด้านหลังโดยใช้ทฤษฎีบทของเบย์โดย ซึ่งเป็นสิ่งเดียวกันกับที่เราได้รับมาก่อนหน้านี้

h(p|x)=f(p)g(x|p)01f(p)g(x|p)dp=1B(α,β)(nx)pα+x1(1p)β+nx11B(α,β)(nx)Γ(α+x)Γ(β+nx)Γ(α+β+n)=Γ(n+α+β)Γ(α+x)Γ(β+nx)pα+x1(1p)β+nx1

7

หมายเหตุทั่วไป

เพื่อให้คำตอบที่ได้รับจาก @ Björnชัดเจนยิ่งขึ้นและในเวลาเดียวกันโดยทั่วไปเราควรจำไว้ว่าเรามาถึงทฤษฎีบท Bayesจาก

p(θ|X)×p(X)=p(X,θ)=p(X|θ)×p(θ)

p(θ|X)=p(X|θ)×p(θ)p(X) (Bayes นั้น)

ที่หมายถึงข้อมูลที่สังเกตและที่ไม่รู้จักเราพารามิเตอร์ที่เราต้องการที่จะทำให้การหาข้อสรุปเกี่ยวกับความน่าจะเป็น - ในกรณีคำถามของพารามิเตอร์เป็นความถี่ที่ไม่รู้จัก\ตอนนี้ไม่ต้องกังวลว่าเรากำลังพูดถึงเวกเตอร์หรือสเกลาร์เพื่อให้ง่ายXθπ

มาร์จิ้นในกรณีอย่างต่อเนื่องนำไปสู่

p(X)=+p(X,θ)dθ=+p(X|θ)×p(θ)dθ

เมื่อการกระจายข้อต่อเท่ากับที่เราได้เห็นข้างต้น มันเป็นค่าคงที่เนื่องจากหลังจาก 'รวมตัวกัน' พารามิเตอร์จะขึ้นอยู่กับเงื่อนไขคงที่เท่านั้นp(X,θ)likelihood×prior

ดังนั้นเราจึงสามารถกำหนดใหม่ Bayes ทฤษฎีบทเป็น

p(θ|X)=Const.×p(X|θ)×p(θ)ด้วยConst.=1p(X)=1p(X|θ)×p(θ)dθ

และมาถึงรูปแบบปกติของทฤษฎีบทของเบย์

การประยุกต์ใช้กับปัญหามือ

ตอนนี้เราพร้อมที่จะเชื่อมต่อสิ่งที่เรารู้ตั้งแต่ความในกรณีของคำถามที่มีรูปแบบlikelihood×prior

p(X,θ)=p(X|θ)×p(θ)=Aθa+y1(1θ)b+ny1=Aθa1(1θ)b1

โดยที่ ,และตำแหน่งรวบรวมคำคงที่จากความน่าจะเป็นทวินามและเบต้า ก่อน.a=a+yb=b+nyA=1B(a,b)(ny)

ตอนนี้เราสามารถใช้คำตอบที่ได้รับจาก @ Björnเพื่อค้นหาว่าสิ่งนี้รวมกับฟังก์ชั่นเบต้า คูณด้วยชุดคำศัพท์คงที่ดังนั้นB(a,b)A

p(X)=A01θa1(1θ)b1dθ=AB(a,b)

p(θ|X)=Aθa1(1θ)b1AB(a,b)=θa1(1θ)b1B(a,b)

โปรดทราบว่าคำใด ๆ ที่คงที่ในการแจกแจงแบบร่วมจะเป็นการยกเลิกเนื่องจากจะปรากฏในผู้เสนอชื่อและส่วนในเวลาเดียวกัน (เทียบกับคำตอบที่ @jtobin) ทำให้เราไม่ต้องกังวล

ดังนั้นเราจึงทราบว่าการแจกแจงหลังเป็นจริงการกระจายเบต้าซึ่งเราสามารถอัปเดตพารามิเตอร์ก่อนหน้านี้ และเพื่อมาถึงหลัง นี่คือเหตุผลที่เบต้ากระจายก่อนที่จะเรียกว่าคอนจูเกตก่อนb = b + n - ya=a+yb=b+ny


เหตุผลนี้คล้ายกับ jtobin รุ่นนัย เราจะดูเฉพาะบางส่วนของช่วงเวลาที่น่าจะเป็นก่อนที่มีพารามิเตอร์และรวบรวมทุกอย่างอื่นในค่าคงที่การทำให้เป็นมาตรฐาน ดังนั้นเรามองไปที่การรวมเป็นขั้นตอนสุดท้ายซึ่งถูกต้องตามกฎหมายเพราะค่าคงที่ยกเลิกเป็น jtobin ได้แสดงในรุ่นที่ชัดเจนของเขา
gwr
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.