การชี้แจงความคาดหวังสูงสุด


11

ผมพบว่าการกวดวิชาที่เป็นประโยชน์มากเกี่ยวกับอัลกอริทึม EM

ตัวอย่างและรูปภาพจากบทช่วยสอนนั้นยอดเยี่ยมมาก

ป้อนคำอธิบายรูปภาพที่นี่

คำถามที่เกี่ยวข้องเกี่ยวกับการคำนวณความน่าจะเป็นการเพิ่มความคาดหวังทำงานอย่างไร

ฉันมีคำถามอื่นเกี่ยวกับวิธีการเชื่อมต่อทฤษฎีที่อธิบายในบทช่วยสอนกับตัวอย่าง

gtlogP(x;Θ)gt(Θ^(t))=logP(x;Θ^(t))

gt

Θ^A(0)=0.6Θ^B(0)=0.5Θ^A(1)=0.71Θ^B(1)=0.58Θ^(0)Θ^(1)

Q(z)Q(z)=P(z|x;Θ)

ขอบคุณ.

คำตอบ:


1

ฉันพบว่าบันทึกเหล่านี้มีประโยชน์มากในการค้นหาว่าเกิดอะไรขึ้นกับวัสดุเสริม

ฉันจะตอบคำถามเหล่านี้นิดหน่อยเพื่อความต่อเนื่อง


ครั้งแรก: ทำไมมันเป็นอย่างนั้น

θ(0)θ(1)

g0log(P(x;θ))θ(0)θ(1)g0θ


ประการที่สอง: ทำไมความไม่เท่าเทียมจึงแน่นเมื่อ

Q(z)=P(z|x;θ)

มีคำใบ้ในเชิงอรรถเกี่ยวกับสิ่งที่มันบอกว่า

y=E[y]

QP(x,z;θ)Q(z)

P(x,z;θ)=P(z|x;θ)P(x;θ)

ซึ่งทำให้เศษส่วนของเรา

P(z|x;θ)P(x;θ)P(z|x;θ)=P(x;θ)

P(x;θ)zC

log(zQ(z)C)zQ(z)log(C)

Q(z)


gt

คำตอบที่ให้ไว้ในบันทึกย่อที่ฉันเชื่อมโยงนั้นแตกต่างจากคำตอบในโน้ตเสริมเล็กน้อย แต่คำตอบเหล่านั้นแตกต่างกันเพียงค่าคงที่และเราจะขยายให้ใหญ่ที่สุด หนึ่งในบันทึกย่อ (ที่มา) คือ:

gt(θ)=log(P(x|θ(t)))+zP(z|x;θ(t))log(P(x|z;θ)P(z|θ)P(z|x;θ(t))P(x|θ(t)))

สูตรที่ซับซ้อนนี้ไม่ได้ถูกพูดถึงในบันทึกเสริมอาจเป็นเพราะคำศัพท์เหล่านี้จำนวนมากจะเป็นค่าคงที่ที่ถูกโยนทิ้งไปเมื่อเราขยายให้ใหญ่สุด หากคุณสนใจว่าเรามาถึงที่นี่ได้อย่างไรในตอนแรกฉันขอแนะนำบันทึกย่อที่ฉันเชื่อมโยง

gt(θ(t))gt(θ(t))=logP(x|θ(t))

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.