มันเป็นความจริงว่าสำหรับสองตัวแปรสุ่มและ ,
E ( A ∣ B ) = E ( B ∣ A ) E ( A )E ( B ) ?
มันเป็นความจริงว่าสำหรับสองตัวแปรสุ่มและ ,
E ( A ∣ B ) = E ( B ∣ A ) E ( A )E ( B ) ?
คำตอบ:
E [ A ∣ B ] ? = E [ B ∣ A ] E [ A ]E [ B ]
ถ้าE [ B ] = 0
โดยทั่วไปแล้ว( 1 )
กรัม( B ) ? = h ( A ) E [ A ]E [ B ]
สำหรับความรู้ของฉันมีเพียงสองกรณีพิเศษที่( 1 )
ตามที่ระบุไว้ข้างต้นสำหรับอิสระตัวแปรสุ่มและB , G ( B )และเอช( )เป็นคนเลวตัวแปรสุ่ม (เรียกว่าค่าคงที่โดย folks ทางสถิติที่ไม่รู้หนังสือ) ที่เท่ากับE [ ]และE [ B ]
ตามลำดับและดังนั้นหากE [ B ] ≠ 0เรามีความเท่าเทียมกันใน( 1 )
อีกด้านหนึ่งของสเปกตรัมจากความเป็นอิสระสมมติว่า
A = g ( B )
ในความคิดเห็นเกี่ยวกับคำตอบนี้ฮูเบอร์ได้แนะนำให้พิจารณาความเท่าเทียมกันที่สมมาตรสมมาตร E [ A ∣ B ] E [ B ] ? = E [ B ∣ A ] E [ A ]
ผลที่ได้ไม่เป็นความจริงโดยทั่วไปให้เราเห็นว่าในตัวอย่างง่ายๆ ให้X ∣ P = pมีการแจกแจงแบบทวินามพร้อมพารามิเตอร์n , pและPมีการแจกแจงแบบเบตากับพารามิเตอร์( α , β )นั่นคือแบบจำลองแบบเบส์ที่มีคอนจูเกตก่อน ตอนนี้เพียงแค่คำนวณสูตรสองด้านของคุณทางซ้ายมือคือE X ∣ P = n Pในขณะที่ด้านขวามือคือ
E ( P ∣ X ) E X
ค่าที่คาดหวังแบบมีเงื่อนไขของตัวแปรสุ่มA ที่ให้ไว้กับเหตุการณ์ที่B = bเป็นตัวเลขที่ขึ้นอยู่กับว่าหมายเลขbคืออะไร ดังนั้นเรียกว่าเอช( ข) จากนั้นคาดว่าจะมีเงื่อนไขค่าE ( | B )เป็นชั่วโมง( B ) ,ตัวแปรสุ่มที่มีค่าจะถูกกำหนดอย่างสมบูรณ์โดยค่าของตัวแปรสุ่มB ดังนั้นE ( A ∣ B )เป็นฟังก์ชันของBและE (
The quotient E(A)/E(B)
So one side of your proposed equality is determined by A
(Perhaps I should add that they can be equal in the trivial case when the values of A
The expression certainly does not hold in general. For the fun of it, I show below that if A and B follow jointly a bivariate normal distribution, and have non-zero means, the result will hold if the two variables are linear functions of each other and have the same coefficient of variation (the ratio of standard deviation over mean) in absolute terms.
For jointly normals we have
E(A∣B)=μA+ρσAσB(B−μB)
and we want to impose
μA+ρσAσB(B−μB)=[μB+ρσBσA(A−μA)]μAμB
⟹μA+ρσAσB(B−μB)=μA+ρσBσAμAμB(A−μA)
Simplify μA and then ρ, and re-arrange to get
B=μB+σ2Bσ2AμAμB(A−μA)
So this is the linear relationship that must hold between the two variables (so they are certainly dependent, with correlation coefficient equal to unity in absolute terms) in order to get the desired equality. What it implies?
First, it must also be satisfied that
E(B)≡μB=μB+σ2Bσ2AμAμB(E(A)−μA)⟹μB=μB
so no other restirction is imposed on the mean of B ( or of A) except of them being non-zero. Also a relation for the variance must be satisfied,
Var(B)≡σ2B=(σ2Bσ2AμAμB)2Var(A)
⟹(σ2A)2σ2B=(σ2B)2σ2A(μAμB)2
⟹(σAμA)2=(σBμB)2⟹(cvA)2=(cvB)2
⟹|cvA|=|cvB|
which was to be shown.
Note that equality of the coefficient of variation in absolute terms, allows the variables to have different variances, and also, one to have positive mean and the other negative.