2
ความแตกต่างของ KL ระหว่าง Gaussians ที่ไม่เปลี่ยนแปลงสองตัว
ฉันจำเป็นต้องกำหนด KL-divergence ระหว่างสอง Gaussians ฉันกำลังเปรียบเทียบผลลัพธ์ของฉันกับสิ่งเหล่านี้แต่ฉันไม่สามารถทำซ้ำผลลัพธ์ของพวกเขาได้ ผลลัพธ์ของฉันผิดอย่างชัดเจนเนื่องจาก KL ไม่ใช่ 0 สำหรับ KL (p, p) ฉันสงสัยว่าฉันกำลังทำผิดพลาดและถามว่าใครสามารถตรวจสอบได้ ให้p(x)=N(μ1,σ1)p(x)=N(μ1,σ1)p(x) = N(\mu_1, \sigma_1)และq(x)=N(μ2,σ2)q(x)=N(μ2,σ2)q(x) = N(\mu_2, \sigma_2) ) จาก PRML ของ Bishop ฉันรู้ว่า KL(p,q)=−∫p(x)logq(x)dx+∫p(x)logp(x)dxKL(p,q)=−∫p(x)logq(x)dx+∫p(x)logp(x)dxKL(p, q) = - \int p(x) \log q(x) dx + \int p(x) \log p(x) dx โดยที่การรวมเข้าด้วยกันจะทำในทุกบรรทัดจริงและ ∫p(x)logp(x)dx=−12(1+log2πσ21),∫p(x)logp(x)dx=−12(1+log2πσ12),\int p(x) \log p(x) dx = -\frac{1}{2} …