ความแตกต่างของตัวแปรสุ่ม iid lognormal สองตัว


23

Let X1และX2 2 iidrv ของที่log(X1),log(X2)N(μ,σ) ) ผมอยากจะรู้ว่าการกระจายสำหรับX1-X2 2

สิ่งที่ดีที่สุดที่ฉันสามารถทำได้คือนำซีรีย์ของทั้งสอง Taylor และได้รับความแตกต่างคือผลรวมของความแตกต่างระหว่างสอง rv ปกติและสอง chi-squared rv นอกเหนือจากความแตกต่างที่เหลือระหว่างเงื่อนไขที่เหลือ มีวิธีที่ตรงไปตรงมามากขึ้นที่จะได้รับการกระจายความแตกต่างระหว่าง 2 iid log-normal rv หรือไม่?


นี่คือเอกสารที่เกี่ยวข้อง คุณจะพบเอกสารเพิ่มเติมโดย googling! papers.ssrn.com/sol3/papers.cfm?abstract_id=2064829
kjetil b halvorsen

1
ฉันได้ดูคร่าวๆอย่างคร่าวๆและดูเหมือนจะไม่ตอบคำถามของฉันอย่างน่าพอใจ พวกเขาดูเหมือนจะเกี่ยวข้องกับการประมาณค่าตัวเลขกับปัญหาที่ยากขึ้นของการหาการแจกแจงสำหรับผลรวม / ความแตกต่างระหว่างlognormal rv ที่สัมพันธ์กัน ฉันหวังว่าจะมีคำตอบที่ง่ายกว่าสำหรับคดีอิสระ
frayedchef

2
อาจเป็นคำตอบที่ง่ายกว่าในกรณีที่เป็นอิสระ แต่ไม่ใช่คำตอบที่ง่าย! กรณี lognormal เป็นกรณียากที่รู้จักกันอย่างมีชื่อเสียง --- ฟังก์ชั่นที่สร้างช่วงเวลาของการกระจาย lognormal ไม่มีอยู่ --- นั่นคือมันไม่ได้บรรจบกันในช่วงเวลาที่เปิดที่มีศูนย์ ดังนั้นคุณจะไม่พบทางออกที่ง่าย
kjetil b halvorsen

ฉันเห็น ... ดังนั้นวิธีที่ฉันระบุไว้ข้างต้นจะสมเหตุสมผล (เช่นถ้า , X 1 - X 2( Y 1 - Y 2 ) + ( Y 2 1 - Y 2 2 ) / 2 +Yi=log(Xi)เรารู้อะไรเกี่ยวกับเงื่อนไขการสั่งซื้อที่สูงขึ้นหรือวิธีผูกมัดพวกเขา X1X2(Y1Y2)+(Y12Y22)/2+...
frayedchef

1
เพื่อแสดงให้เห็นถึงความยากลำบาก --- lognormal mgf ถูกกำหนดบนเท่านั้นเพื่อประมาณการกระจายความแตกต่างด้วยวิธีการอานเราจำเป็นต้อง (K = cumulant gf) K ( s ) + K ( - s )และ ผลรวมนั้นถูกกำหนดในจุดเดียวเท่านั้นศูนย์ดังนั้นดูเหมือนจะไม่ทำงานผลรวมหรือค่าเฉลี่ยจะง่ายกว่า!(,0]K(s)+K(s)
kjetil b halvorsen

คำตอบ:


15

นี่เป็นปัญหาที่ยาก ฉันคิดก่อนเกี่ยวกับการใช้ (ประมาณบางส่วน) ฟังก์ชั่นสร้างช่วงเวลาของการแจกแจงล็อกนอร์มอล ไม่ทำงานอย่างที่ฉันจะอธิบาย แต่ก่อนอื่นบางสัญกรณ์:

ให้เป็นความหนาแน่นปกติมาตรฐานและΦฟังก์ชั่นการแจกแจงสะสมที่สอดคล้องกัน เราจะวิเคราะห์กรณีการกระจาย lognormal ลิตรn N ( 0 , 1 )ซึ่งมีฟังก์ชั่นความหนาแน่น F ( x ) = 1ϕΦlnN(0,1) และฟังก์ชันการแจกแจงสะสม F(x)=Φ(lnx) สมมติว่าXและYเป็นตัวแปรสุ่มอิสระที่มีการแจกแจงล็อกปกติข้างต้น เราสนใจในการแจกแจงของD=X-Yซึ่งเป็นการกระจายแบบสมมาตรโดยมีค่าเฉลี่ยเป็นศูนย์ ให้M(t)=E(-,0]

f(x)=12πxe12(lnx)2
F(x)=Φ(lnx)
XYD=XYเป็นฟังก์ชั่นช่วงเวลาที่ก่อให้เกิดของX มันถูกกำหนดไว้สำหรับ tM(t)=EetXXt(,0]ดังนั้นจึงไม่ได้กำหนดไว้ในช่วงเวลาเปิดที่มีศูนย์ฟังก์ชั่นสร้างช่วงเวลาสำหรับคือM D ( t ) = E e t ( X - Y ) = E e t X E e - t Y = M ( t ) M ( - t )ดังนั้นฟังก์ชันสร้างโมเมนต์สำหรับDถูกกำหนดเฉพาะสำหรับt = 0DMD(t)=Eet(XY)=EetXEetY=M(t)M(t)Dt=0จึงไม่ค่อยมีประโยชน์

นั่นหมายความว่าเราจะต้องมีวิธีการโดยตรงมากขึ้นในการหาค่าประมาณสำหรับการกระจายของDสมมติว่าt 0Dt0

P(Dt)=P(XYt)=0P(Xyt|Y=y)f(y)dy=0P(Xt+y)f(y)dy=0F(t+y)f(y)dy
(and the case t<0 is solved by symmetry, we get P(Dt)=1P(D|t|)).

This expression can be used for numerical integration or as a basis for simulation. First a test:

 integrate(function(y) plnorm(y)*dlnorm(y), lower=0,  upper=+Inf)
  0.5 with absolute error < 2.3e-06

which is clearly correct. Let us wrap this up inside a function:

pDIFF  <-  function(t) {
    d  <-  t
    for (tt in seq(along=t)) {
        if (t[tt] >= 0.0) d[tt] <- integrate(function(y) plnorm(y+t[tt])*dlnorm(y),
                                         lower=0.0,  upper=+Inf)$value else
                          d[tt] <- 1-integrate(function(y) plnorm(y+abs(t[tt]))*dlnorm(y),
                                         lower=0.0, upper=+Inf)$value
    }
    return(d)
}

> plot(pDIFF,  from=-5,  to=5)

which gives:

cumulative distribution function found by numerical integration

Then we can find the density function by differentiating under the integral sign, obtaining

dDIFF  <-  function(t) {
       d  <- t; t<- abs(t)
       for (tt in seq(along=t)) {
           d[tt]  <-  integrate(function(y) dlnorm(y+t[tt])*dlnorm(y),
                                lower=0.0,  upper=+Inf)$value
       }
       return(d)
}

which we can test:

> integrate(dDIFF,  lower=-Inf,  upper=+Inf)
0.9999999 with absolute error < 1.3e-05

And plotting the density we get:

plot(dDIFF,  from=-5,  to=5)

density function found by numerical integration

I did also try to get some analytic approximation, but so far didn't succeed, it is not an easy problem. But numerical integration as above, programmed in R is very fast on modern hardware, so is a good alternative which probably should be used much more.


1

This does not strictly answer your question, but wouldn't it be easier to look at the ratio of the X and Y? You then simply arrive at

Pr(XYt)=Pr(log(XY)log(t))=Pr(log(X)log(Y)log(t))N(0,2σ2)

Depending on your application, this may serve your needs.


3
But aren't we looking at X-Y instead of log(X) - log(Y) ?
Sextus Empiricus

Yes, of course. This is just in case somebody would be interested in knowing how two lognormal variables differ from each other without it necessarily needing to be a difference. That's why I also say it doesn't the answer the question.
Vincent Traag
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.