คำถามติดแท็ก kullback-leibler

การวัดระยะทางแบบอสมมาตร (หรือความแตกต่าง) ระหว่างการแจกแจงความน่าจะเป็น มันอาจถูกตีความว่าเป็นค่าที่คาดหวังของอัตราส่วนความน่าจะเป็นบันทึกภายใต้สมมติฐานทางเลือก

1
ทำไมคนหลัง Bayesian จึงมุ่งไปที่ตัวย่อของ KL divergence?
พิจารณาคชกรรมหลังX asymptotically, สูงสุดเกิดขึ้นใน MLE ประมาณการที่เพิ่งเพิ่มโอกาส(X)θ ∣ Xθ|X\theta\mid Xθ^θ^\hat \thetaargminθฉθ( X)argminθฉθ(X)\operatorname{argmin}_\theta\, f_\theta(X) แนวคิดทั้งหมดเหล่านี้ - นักบวชชาว Bayesian, เพิ่มความเป็นไปได้สูงสุด - ให้เสียงที่ดีเลิศและไม่เป็นไปตามอำเภอใจ ไม่มีการลงชื่อเข้าใช้ แต่ MLE จะลดความแตกต่างของ KL ให้น้อยที่สุดระหว่างการกระจายจริงและเช่นจะย่อเล็กสุดฉ~ฉ~\tilde fฉθ( x )ฉθ(x)f_\theta(x) KL (ฉ~∥ฉθ) =∫+ ∞- ∞ฉ~( x ) [บันทึกฉ~( x ) - บันทึกฉθ( x ) ]dxKL(ฉ~∥ฉθ)=∫-∞+∞ฉ~(x)[เข้าสู่ระบบ⁡ฉ~(x)-เข้าสู่ระบบ⁡ฉθ(x)]dx KL(\tilde f \parallel f_\theta) = \int_{-\infty}^{+\infty} \tilde f(x) …

2
ดัชนีความมั่นคงของประชากร - การหารด้วยศูนย์
ดัชนีความมั่นคงของประชากรวัดปริมาณการเปลี่ยนแปลงของการแจกแจงของตัวแปรโดยการเปรียบเทียบตัวอย่างข้อมูลในช่วงเวลาสองช่วงเวลา เป็นที่นิยมใช้ในการวัดการเปลี่ยนแปลงของคะแนน มีการคำนวณดังนี้ 1) ตัวอย่างจากช่วงเวลาพื้นฐานจะถูกแยกออก โดยปกติจะแบ่งเป็น deciles 2) ตัวอย่างจากช่วงเวลาเป้าหมายถูกแยกออกโดยใช้ช่วงเวลาเดียวกับในขั้นตอนแรก PSผม=Σผม(Aผม-Bผม) ⋅ l n (AผมBผม)PSผม=Σผม(Aผม-Bผม)⋅ล.n(AผมBผม)PSI = \sum_{i} (A_{i} - B_{i}) \cdot ln(\frac{A_{i}}{B_{i}}) ที่ไหน: AผมAผมA_{i} - ส่วนแบ่งของถังขยะ i-th ในช่วงเวลาฐาน BผมBผมB_{i} - ส่วนแบ่งของถังขยะ i-th ในช่วงเวลาเป้าหมาย คำถาม : ควรทำอย่างไรเมื่อหนึ่งในถังขยะจากตัวอย่างเป้าหมายว่างเปล่า
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.