Kullback-Leibler แตกต่างของPด้วยความเคารพQเป็นอนันต์เมื่อPไม่ได้อย่างต่อเนื่องเกี่ยวกับการQนั่นคือเมื่อมีอยู่ชุดที่วัดดังกล่าวว่าκ(P|Q)PQPQAและ P ( ) ≠ 0 ยิ่งไปกว่านั้นความแตกต่าง KL ไม่สมมาตรในแง่ที่โดยทั่วไป κ ( P ∣ Q ) ≠ κ ( Q ∣Q(A)=0P(A)≠0 ) จำได้ว่า
κ ( P | Q ) = ∫ P ล็อก( Pκ(P∣Q)≠κ(Q∣P)
วิธีหนึ่งในข้อเสียทั้งสองนี้ซึ่งยังคงยึดตามความแตกต่างของ KL คือการแนะนำจุดกึ่งกลาง
R=1
κ(P∣Q)=∫Plog(PQ).
ดังนั้น
Rเป็นตัวชี้วัดความน่าจะเป็นและ
Pและ
Qอยู่เสมออย่างต่อเนื่องอย่างที่เกี่ยวกับการวิจัย
ดังนั้นหนึ่งสามารถพิจารณา "ระยะทาง" ระหว่าง
Pและ
Qยังคงอยู่บนพื้นฐานของความแตกต่าง KL แต่การใช้
Rหมายถึง
η(P,Q)=κ(P|R)+κ(Q|R)
จากนั้น
η(PR=12(P+Q).
RPQRPQRη(P,Q)=κ(P∣R)+κ(Q∣R).
เป็นค่าลบและ จำกัด สำหรับ
Pและ
Q ทุกอัน ,
ηเป็นสมมาตรในแง่ที่
η ( P , Q ) = η ( Q , P )สำหรับทุก
Pและ
Q , และ
η ( P , Q ) = 0 iff
P = Q
η(P,Q)PQηη(P,Q)=η(Q,P)PQη(P,Q)=0P=Q
สูตรเทียบเท่า
η(P,Q)=2log(2)+∫(Plog(P)+Qlog(Q)−(P+Q)log(P+Q)).
ภาคผนวก 1การแนะนำของจุดกึ่งกลางของและQไม่ได้โดยพลการในแง่ที่ว่า
η ( P , Q ) = นาที[ κ ( P | ⋅ ) + κ ( Q | ⋅ ) ] ,
ที่ต่ำสุดเป็นมากกว่าชุดของ มาตรการความน่าจะเป็นPQ
η(P,Q)=min[κ(P∣⋅)+κ(Q∣⋅)],
ภาคผนวก 2 @ cardinal กล่าวว่ายังเป็นf -divergence สำหรับฟังก์ชันนูน
f ( x ) = x log ( x ) - ( 1 + x ) log ( 1 + x ) + ( 1 + x ) log ( 2 ) .ηf
f(x)=xlog(x)−(1+x)log(1+x)+(1+x)log(2).