ตัวแปรสุ่มขึ้นอยู่กับ


15

เราสามารถพูดอะไรเกี่ยวกับการพึ่งพาของตัวแปรสุ่มและฟังก์ชันของตัวแปรสุ่มได้หรือไม่? ตัวอย่างเช่นX2ขึ้นอยู่กับX ?


5
หากXและf(X)เป็นอิสระจากนั้นf(X)คงที่เกือบแน่นอน นั่นคือมีอยู่ดังกล่าวว่าP ( F ( X ) = ) = 1 aP(f(X)=a)=1
พระคาร์ดินัล

2
@cardinal - ทำไมไม่ตอบคำถามนั้น ?
Karl

@ cardinal ฉันต้องการขอให้ John อธิบายรายละเอียดเกี่ยวกับความคิดเห็นของเขา ฉันคิดว่าฟังก์ชั่นที่พิจารณานั้นเป็นฟังก์ชันที่กำหนดขึ้นมา ในกระบวนการนี้ฉันได้เขียนอาร์กิวเมนต์สำหรับผลลัพธ์ที่คุณระบุไว้แทน ความคิดเห็นใด ๆ ยินดีต้อนรับและชื่นชมมากที่สุด
NRH

ใช่X2จะขึ้นอยู่กับXเพราะถ้าคุณรู้ว่าXแล้วคุณจะรู้X2 2 XและYมีความเป็นอิสระเฉพาะในกรณีที่ความรู้ของค่าXไม่ได้ส่งผลกระทบต่อความรู้ของการกระจายของYY
เฮนรี่

2
@iamrohitbanga: ถ้าX{1,1}ดังนั้นX2=1แทบจะแน่นอน ดังนั้นXจึงเป็นอิสระจากX2ในกรณีพิเศษนี้
พระคาร์ดินัล

คำตอบ:


18

นี่คือหลักฐานการแสดงความคิดเห็นของ @ cardinal โดยมีการบิดเล็กน้อย ถ้าและf ( X )เป็นอิสระจากนั้น P ( X A f - 1 ( B ) ) = P ( X A , f ( X ) B )Xf(X) การA=f-1(B)ให้ผลสมการ P(f(X)B)=P(f(X)B)2, ซึ่งมีสองโซลูชั่น 0 และ 1 ดังนั้นP(F(X)

P(XAf1(B))=P(XA,f(X)B)=P(XA)P(f(X)B)=P(XA)P(Xf1(B))
A=f1(B)
P(f(X)B)=P(f(X)B)2,
สำหรับทุกB โดยทั่วไปแล้วไม่สามารถพูดได้มากกว่านี้ หาก Xและ f ( X )เป็นอิสระจากนั้น f ( X )เป็นตัวแปรเช่นนั้นสำหรับ Bใด ๆ ที่เป็น Bหรือ B c ที่มีความน่าจะเป็น 1 หากต้องการพูดมากกว่านี้เราต้องการสมมติฐานที่มากขึ้นเช่นชุด singleton { b }สามารถวัดได้P(f(X)B){0,1}BXf(X)f(X)BBBc{b}

อย่างไรก็ตามรายละเอียดในระดับทฤษฏีการวัดดูเหมือนจะไม่เป็นปัญหาหลักของ OP ถ้าเป็นจริงและfเป็นฟังก์ชันจริง (และเราใช้ Borel σ - พีชคณิตพูด) จากนั้นรับB = ( - , b ]ตามด้วยฟังก์ชั่นการแจกแจงสำหรับการแจกแจงf ( X )ใช้เพียง ค่า 0 และ 1 ดังนั้นจึงมีbที่มันกระโดดจาก0ถึง1และP ( f ( X ) = b ) = 1XfσB=(,b]f(X)b01P(f(X)=b)=1.

ในตอนท้ายของวันคำตอบของคำถาม OPs คือโดยทั่วไปแล้วและf ( X )ขึ้นอยู่กับสถานการณ์และเป็นอิสระเฉพาะในสถานการณ์ที่พิเศษมาก ยิ่งกว่านั้นการวัด Dirac δ f ( x )จะมีคุณสมบัติเสมอสำหรับการแจกแจงแบบมีเงื่อนไขของf ( X ) ที่ให้X = xซึ่งเป็นวิธีที่เป็นทางการในการบอกว่ารู้X = xแล้วคุณก็รู้ว่าf ( X )Xf(X)δf(x)f(X)X=xX=xf(X)คือ. รูปแบบพิเศษของการพึ่งพาอาศัยกันกับการแจกแจงแบบเงื่อนไขแบบถดถอยนี้เป็นคุณลักษณะสำหรับฟังก์ชันของตัวแปรสุ่ม


(+1) ขออภัย ในขณะที่ฉันกำลังเขียนคำตอบฉันไม่ได้รับการอัปเดตที่คุณส่งไปเช่นกัน :)
สำคัญ

21

เล็มม่า : ให้เป็นตัวแปรสุ่มและปล่อยให้fเป็นฟังก์ชัน (วัดค่าได้ของเบเรล) เช่นที่Xและf ( X )มีความเป็นอิสระ จากนั้นf ( X )คงที่เกือบแน่นอน นั่นคือมีบางRดังกล่าวว่าP ( F ( X ) = ) = 1XfXf(X)f(X)aRP(f(X)=a)=1

หลักฐานอยู่ด้านล่าง; แต่ก่อนอื่นพูดบางอย่าง การวัดค่าโบเรลเป็นเพียงเงื่อนไขทางเทคนิคเพื่อให้แน่ใจว่าเราสามารถกำหนดความน่าจะเป็นได้อย่างสมเหตุสมผลและสอดคล้องกัน คำสั่ง "เกือบจะแน่นอน" ก็เป็นเพียงเทคนิค

สาระสำคัญของการแทรกคือว่าถ้าเราต้องการและF ( X )ที่จะเป็นอิสระแล้วผู้สมัครของเราเท่านั้นที่มีฟังก์ชั่นในรูปแบบF ( x ) =Xf(X)f(x)=a

คมชัดนี้กับกรณีของฟังก์ชั่นดังกล่าวว่าXและF ( X )มีuncorrelated นี้เป็นมากมากสภาพอ่อนแอ ที่จริงให้พิจารณาตัวแปรสุ่มXใด ๆ ที่มีค่าเฉลี่ยเป็นศูนย์, จำกัด ช่วงเวลาที่สามแน่นอนแน่นอน รับf ( x ) = x 2ดังตัวอย่างในคำถาม จากนั้นC o v ( X , f ( X ) ) = E X f (fXf(X)Xf(x)=x2ดังนั้น Xและ f ( X ) = X 2ไม่ได้ถูกนำมาเชื่อมโยงกันCov(X,f(X))=EXf(X)=EX3=0Xf(X)=X2

ด้านล่างฉันแสดงหลักฐานที่ง่ายที่สุดที่ฉันสามารถหาได้สำหรับบทแทรก ฉันได้ทำให้มันverbose เหลือเกินเพื่อให้รายละเอียดทั้งหมดชัดเจนที่สุด หากใครเห็นวิธีในการปรับปรุงหรือทำให้มันง่ายขึ้นฉันจะเพลิดเพลินไปกับการรู้

Idea of proof: Intuitively, if we know X, then we know f(X). So, we need to find some event in σ(X), the sigma algebra generated by X, that relates our knowledge of X to that of f(X). Then, we use that information in conjunction with the assumed independence of X and f(X) to show that our available choices for f have been severely constrained.

Proof of lemma: Recall that X and Y are independent if and only if for all Aσ(X) and Bσ(Y), P(XA,YB)=P(XA)P(YB). Let Y=f(X) for some Borel measurable function f such that X and Y are independent. Define A(y)={ω:f(X(ω))y}. Then,

A(y)={ω:X(ω)f1((,y])}
and since (,y] is a Borel set and f is Borel-measurable, then f1((,y]) is also a Borel set. This implies that A(y)σ(X) (by definition(!) of σ(X)).

Since X and Y are assumed independent and A(y)σ(X), then

P(XA(y),Yy)=P(XA(y))P(Yy)=P(f(X)y)P(f(X)y),
and this holds for all yR. But, by definition of A(y)
P(XA(y),Yy)=P(f(X)y,Yy)=P(f(X)y).
Combining these last two, we get that for every yR,
P(f(X)y)=P(f(X)y)P(f(X)y),
so P(f(X)y)=0 or P(f(X)y)=1. This means there must be some constant aR such that the distribution function of f(X) jumps from zero to one at a. In other words, f(X)=a almost surely.

NB: Note that the converse is also true by an even simpler argument. That is, if f(X)=a almost surely, then X and f(X) are independent.


+1, I should be sorry - to steal your argument is not very polite. It's great that you spelled out the difference between independence and being uncorrelated in this context.
NRH

No "stealing" involved, nor impoliteness. :) Though many of the ideas and comments are similar (as you'd expect for a question like this!), I think the two posts are nicely complementary. In particular, I like how at the beginning of your post you didn't constrain yourself to real-valued random variables.
cardinal

@NRH accepting your answer as the initial part of your proof seems easier to grasp for a novice like me. Nevertheless +1 cardinal for your answer.
Rohit Banga
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.