เอนโทรปีเชิงประจักษ์คืออะไร?


19

ในคำนิยามของชุดทั่วไปที่ใช้ร่วมกัน (ใน "องค์ประกอบของทฤษฎีข้อมูล", ch. 7.6, p. 195) เราใช้

เป็นเอนโทรปีเชิงประจักษ์ของn-sequence กับP(xn)=Π n ฉัน= 1 P(xฉัน) ฉันไม่เคยเจอคำศัพท์นี้มาก่อน ไม่ได้กำหนดไว้อย่างชัดเจนที่ใดก็ได้ตามดัชนีของหนังสือ

1nlogp(xn)
np(xn)=i=1np(xi)

คำถามของฉันโดยทั่วไปคือ: ทำไมเอนโทรปีเชิงประจักษ์ไม่ได้ที่P ( x )xp^(x)log(p^(x))p^(x)คือการกระจายเชิงประจักษ์?

อะไรคือความแตกต่างและความคล้ายคลึงที่น่าสนใจที่สุดระหว่างสองสูตรนี้? (ในแง่ของคุณสมบัติที่พวกเขาแบ่งปัน / ไม่แชร์)


การแสดงออกทั้งสองนั้นไม่เท่ากันพีชคณิตหรือไม่
whuber

1
@whuber: ไม่พวกเขามีปริมาณที่แตกต่างกันโดยมีวัตถุประสงค์ที่แตกต่างกันฉันเชื่อว่า โปรดทราบว่าครั้งแรกที่ใช้วัดจริงสันนิษฐานว่ารู้จักนิรนัย ครั้งที่สองไม่ได้ p
พระคาร์ดินัล

3
อดีตเกี่ยวข้องกับการสะสมของเอนโทรปีเมื่อเวลาผ่านไปและเปรียบเทียบกับเอนโทรปีที่แท้จริงของระบบ SLLN และ CLT บอกหนึ่งอย่างมากเกี่ยวกับพฤติกรรม เรื่องที่สองเกี่ยวข้องกับการประมาณค่าเอนโทรปีจากข้อมูลและคุณสมบัติบางอย่างของมันยังสามารถรับได้ผ่านเครื่องมือสองตัวที่กล่าวถึง แต่ในขณะที่แรกคือที่เป็นกลางที่สองคือไม่อยู่ภายใต้การใด ๆหน้าฉันสามารถกรอกรายละเอียดบางอย่างถ้ามันจะเป็นประโยชน์ p
พระคาร์ดินัล

1
@ cardinal: ถ้าคุณต้องการแสดงความคิดเห็นข้างต้นเป็นคำตอบ (อาจอธิบายได้ว่า SLLN และ CLT คืออะไร - ฉันไม่รู้พวกนี้) ฉันยินดีที่จะ
โหวต

ตกลงฉันจะพยายามโพสต์เพิ่มเติมในภายหลัง ในระหว่างนี้ SLLN = "กฎที่แข็งแกร่งของคนจำนวนมาก" และ CLT = "ทฤษฎีขีด จำกัด กลาง" ตัวย่อเหล่านี้เป็นตัวย่อมาตรฐานที่คุณอาจพบได้อีกครั้ง ไชโย :)
สำคัญ

คำตอบ:


16

หากข้อมูลมีที่เป็นนักn -sequence จากตัวอย่างพื้นที่X , ความน่าจะเป็นจุดเชิงประจักษ์เป็น P ( x ) = 1xn=x1xnnX สำหรับxX นี่δx(xฉัน)เป็นหนึ่งถ้าxฉัน=xและศูนย์อื่น นั่นคือ P (x)คือความถี่สัมพัทธ์ของxในลำดับที่สังเกต เอนโทรปีของการกระจายความน่าจะเป็นที่ได้รับจากความน่าจะเป็นจุดเชิงประจักษ์คือ H( P )=-Σ

p^(x)=1n|{ixi=x}|=1ni=1nδx(xi)
xXδx(xi)xi=xp^(x)x
H(p^)=xXp^(x)logp^(x)=xX1ni=1nδx(xi)logp^(x)=1ni=1nlogp^(xi).
xXδx(xi)logp^(x)=logp^(xi).
H(p^)=1nlogp^(xn)
with p^(xn)=i=1np^(xi) and using the terminology from the question this is the empirical entropy of the empirical probability distribution. As pointed out by @cardinal in a comment, 1nlogp(xn) is the empirical entropy of a given probability distribution with point probabilities p.

3
(+1) This provides a nice illustration of what Cover and Thomas refer to as the "strange self-referential character" of the entropy. However, I'm not sure the answer actually addresses (directly) the OP's apparent concerns. :)
cardinal

@cardinal, I know, and the answer was just a long comment to make this particular point. I did not want to repeat your points.
NRH

1
You should not feel bad or hesitate to post your own answer including expansion on my comments or those of others. I'm particularly slow and bad about posting answers, and will never take offense if you or others post answers that incorporate aspects of things I may have previously commented briefly on. Quite the contrary, in fact. Cheers.
cardinal

7

Entropy is defined for probability distributions. When you do not have one, but only data, and plug in a naive estimator of the probability distribution, you get empirical entropy. This is easiest for discrete (multinomial) distributions, as shown in another answer, but can also be done for other distributions by binning, etc.

A problem with empirical entropy is that it is biased for small samples. The naive estimate of the probability distribution shows extra variation due to sampling noise. Of course one can use a better estimator, e.g., a suitable prior for the multinomial parameters, but getting it really unbiased is not easy.

The above applies to conditional distributions as well. In addition, everything is relative to binning (or kernelization), so you actually have a kind of differential entropy.


3
We should be careful with what we are referring to as the empirical entropy here. Note that the plug-in estimator is always biased low for all sample sizes, though the bias will decrease as the sample size increases. It's not only difficult to get unbiased estimators for the entropy, but rather impossible in the general case. There has been fairly intense research in this area over the last several years, particularly in the neuroscience literature. Lots of negative results exist, in fact.
cardinal
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.