คำถามติดแท็ก self-study

แบบฝึกหัดประจำจากตำราหลักสูตรหรือแบบทดสอบที่ใช้สำหรับชั้นเรียนหรือเรียนด้วยตนเอง นโยบายของชุมชนนี้คือ "ให้คำแนะนำที่เป็นประโยชน์" สำหรับคำถามดังกล่าวแทนที่จะตอบเต็ม

1
การไล่ระดับสีสำหรับ skipgram word2vec
ฉันกำลังประสบปัญหาในปัญหาการมอบหมายการเรียนรู้อย่างลึกของ Stanford NLP http://cs224d.stanford.edu/assignment1/assignment1_soln ฉันพยายามที่จะเข้าใจคำตอบของ 3a ที่พวกเขากำลังหาอนุพันธ์ของเวกเตอร์สำหรับคำกลาง สมมติว่าคุณได้คำทำนายเวกเตอร์ตรงกับคำกลางcสำหรับ skipgram และการคาดคะเนคำจะทำกับฟังก์ชัน softmax ที่พบในรุ่น word2vecvcvcv_{c} y^o=p(o|c)=exp(uTovc)∑Ww=1exp(uTwvc)y^o=p(o|c)=exp(uoTvc)∑w=1Wexp(uwTvc)\hat{y}^{o} = p(o | c) = \frac {exp(u_{o}^{T} v_{c})}{\sum_{w=1}^{W}exp(u_{w}^{T} v_{c})} โดยที่wหมายถึงคำ w-th และ (w = 1,..., W) คือเวกเตอร์คำว่า "เอาท์พุท" สำหรับคำทั้งหมดในคำศัพท์ สมมติว่าค่าใช้จ่ายข้ามเอนโทรปีถูกนำไปใช้กับการทำนายนี้และคำoเป็นคำที่คาดหวังuwuwu_w โดยที่คือเมทริกซ์ของเวกเตอร์เอาต์พุตทั้งหมดและให้เป็นเวกเตอร์คอลัมน์ของการคาดคะเนคำ softmax และyเป็นป้ายกำกับที่ร้อนแรงที่สุดซึ่ง ยังเป็นเวกเตอร์คอลัมน์U=[u1,u2,⋅⋅⋅,uW]U=[u1,u2,···,uW]U = [u_1,u_2, · · · ,u_W ]y^y^\hat{y} ที่เอนโทรปีของการข้ามคือCE(y,y^)=−∑iyilog(y^i)CE(y,y^)=−∑iyilog⁡(y^i)CE(y, \hat{y}) = − \sum_iy_i\log(\hat{y}_i) …

2
ตัวประมาณค่าแบบเป็นกลางของพารามิเตอร์ปัวซอง
จำนวนอุบัติเหตุต่อวันคือตัวแปรแบบสุ่มของปัวซองด้วยพารามิเตอร์ใน 10 วันที่เลือกแบบสุ่มจำนวนการเกิดอุบัติเหตุถูกสังเกตว่าเป็น 1,0,1,1,2,0,2,0,2,0,0,1 อะไรจะเกิดขึ้น เป็นผู้ประมาณค่าที่เป็นกลางของหรือไม่λλ\lambdaeλeλe^{\lambda} ผมพยายามที่จะพยายามในลักษณะนี้: เรารู้ว่าแต่แลมบ์ดา} ถ้าเช่นนั้นจะใช้ตัวประมาณค่าที่เป็นกลางE(x¯)=λ=0.8E(x¯)=λ=0.8E(\bar{x})=\lambda=0.8E(ex¯)≠ eλE(ex¯)≠ eλE(e^{\bar{x}})\neq\ e^{\lambda}

2
การเปรียบเทียบระหว่างตัวประมาณ Bayes
พิจารณาการสูญเสียกำลังสองด้วยก่อนรับที่2) ปล่อยให้ โอกาส ค้นหาประมาณเบส์\L(θ,δ)=(θ−δ)2L(θ,δ)=(θ−δ)2L(\theta,\delta)=(\theta-\delta)^2π(θ)π(θ)\pi(\theta)π(θ)∼U(0,1/2)π(θ)∼U(0,1/2)\pi(\theta)\sim U(0,1/2)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπδπ\delta^\pi พิจารณาการสูญเสียกำลังสองน้ำหนัก โดยที่ กับก่อน theta) ปล่อยให้เป็นโอกาส ค้นหาประมาณเบส์\Lw(θ,δ)=w(θ)(θ−δ)2Lw(θ,δ)=w(θ)(θ−δ)2L_w(\theta,\delta)=w(\theta)(\theta-\delta)^2w(θ)=I(−∞,1/2)w(θ)=I(−∞,1/2)w(\theta)=\mathbb{I}_{(-\infty,1/2)}π1(θ)=I[0,1](θ)π1(θ)=I[0,1](θ)\pi_1(\theta)=\mathbb{I}_{[0,1]}(\theta)f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|θ)=θxθ−1I[0,1](x),θ>0f(x|\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}(x), \theta>0δπ1δ1π\delta^\pi_1 เปรียบเทียบและδπδπ\delta^\piδπ1δ1π\delta^\pi_1 ครั้งแรกที่ฉันสังเกตเห็นว่าและฉันคิดว่านั่นเป็นโอกาสที่มิฉะนั้นฉันจะไม่ได้รับหลังแล้ว ดังนั้นตัวประมาณค่า Bayes ที่เกี่ยวกับการสูญเสียกำลังสองคือ f(x|θ)∼Beta(θ,1)f(x|θ)∼Beta(θ,1)f(x|\theta)\sim Beta(\theta,1)π(θ|x)∝f(x|θ)π(θ)=θxθ−1I[0,1]∗2I(0,1/2)(θ)∼Beta(θ,1)π(θ|x)∝f(x|θ)π(θ)=θxθ−1I[0,1]∗2I(0,1/2)(θ)∼Beta(θ,1)\pi(\theta|x)\propto f(x|\theta)\pi(\theta)=\theta x^{\theta-1}\mathbb{I}_{[0,1]}*2\mathbb{I}_{(0,1/2)}(\theta)\sim Beta(\theta,1)E[π(θ|x)]=θθ+1E[π(θ|x)]=θθ+1\mathbb{E}[\pi(\theta|x)]=\frac{\theta}{\theta+1} ฉันกำลังดูในหนังสือThe Bayesian Choiceและมีทฤษฎีบทเกี่ยวกับตัวประมาณค่า Bayes ที่เกี่ยวข้องกับการสูญเสียกำลังสองและมันถูกกำหนดโดย δπ(x)=Eπ[w(θ)θ|x]Eπ[w(θ)|x]δπ(x)=Eπ[w(θ)θ|x]Eπ[w(θ)|x]\delta^\pi(x)=\frac{\mathbb{E}^\pi[w(\theta)\theta|x]}{\mathbb{E}^\pi[w(\theta)|x]} บางคนสามารถอธิบายให้ฉันคำนวณได้อย่างไร สิ่งที่ฉันพยายามคือ: δπ(x)=∫θw(θ)f(x|θ)π(θ)dθ∫w(θ)f(x|θ)π(θ)dθ∫f(x|θ)π(θ)dθ∫w(θ)f(xθ)π(θ)dθδπ(x)=∫θw(θ)f(x|θ)π(θ)dθ∫w(θ)f(x|θ)π(θ)dθ∫f(x|θ)π(θ)dθ∫w(θ)f(xθ)π(θ)dθ\delta^\pi(x)=\frac{\frac{\int \theta w(\theta)f(x|\theta)\pi(\theta)d\theta}{\int w(\theta)f(x|\theta)\pi(\theta)d\theta}}{\frac{\int f(x|\theta)\pi(\theta)d\theta}{\int w(\theta)f(x\theta)\pi(\theta)d\theta}} ฉันรู้ว่าการสนับสนุนคือแต่เมื่อฉันพยายามรวมเข้ากับตัวเศษ[0,12][0,12][0,\frac{1}{2}] ∫θw(θ)f(x|θ)π(θ)dθ=∫120θθxθ−1dθ=1x∫120θ2xθdθ∫θw(θ)f(x|θ)π(θ)dθ=∫012θθxθ−1dθ=1x∫012θ2xθdθ\int \theta w(\theta)f(x|\theta)\pi(\theta)d\theta=\int_0^\frac{1}{2}\theta\theta x^{\theta-1}d\theta=\frac{1}{x}\int_0^\frac{1}{2}\theta^2 x^\theta d\theta ฉันไม่ได้ผลลัพธ์ที่ดี

2
ช่วยในการเพิ่มความคาดหวังจากกระดาษ: วิธีการรวมการกระจายก่อนหน้า?
คำถามนี้มีพื้นฐานอยู่บนกระดาษหัวข้อ: การสร้างภาพใหม่ในการถ่ายภาพด้วยแสงแบบกระจายโดยใช้แบบจำลองการกระจายการแผ่รังสีแบบคู่ - การกระจาย ลิ้งค์ดาวน์โหลด ผู้เขียนใช้อัลกอริทึม EM ด้วย ล.1l1l_1sparsity normalization ของ vectorไม่รู้จักเพื่อประมาณค่าพิกเซลของรูปภาพ รูปแบบที่ได้รับจากμμ\mu Y= A μ + e(1)(1)y=Aμ+ey=A\mu + e \tag{1} การประมาณการจะได้รับใน Eq (8) เป็น μ^= หาเรื่องm a x lnp ( y| μ)+γLNp ( μ )(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln p(y|\mu) + \gamma \ln p(\mu)} \tag{2} ในกรณีของฉันฉันได้ถือว่าเป็นตัวกรองความยาวและคือคูณเวกเตอร์ที่แสดงตัวกรอง ดังนั้น,μμ\muLLLμμ\mathbf{\mu}L × 1L×1L …

2
การแปลงสถิติคำสั่งซื้อ
สมมติว่าตัวแปรสุ่มและเป็นอิสระและกระจาย แสดงว่ามี\ การแจกแจงข้อความ {Exp} (1)X1, . . . ,XnX1,...,XnX_1, ... , X_nY1, . . . ,YnY1,...,YnY_1, ..., Y_nยู( 0 , a )ยู(0,a)U(0,a)Zn=nlogmax(Y(n),X(n))min(Y(n),X(n))Zn=nlog⁡max(Y(n),X(n))min(Y(n),X(n))Z_n= n\log\frac{\max(Y_{(n)},X_{(n)})}{\min(Y_{(n)},X_{(n)})}Exp(1)Exp(1)\text{Exp}(1) ฉันได้เริ่มต้นปัญหานี้ด้วยการตั้งค่า{X1,...,Xn,Y1,...Yn}={Z1,...,Zn}{X1,...,Xn,Y1,...Yn}={Z1,...,Zn}\{X_1,...,X_n,Y_1,...Y_n\} = \{Z_1,...,Z_n\}แล้วmax(Yn,Xn)=Z(2n)max(Yn,Xn)=Z(2n)\max(Y_n,X_n)= Z_{(2n)}จะกระจายเป็น(za)2n(za)2n(\frac{z}{a})^{2n}และmin(Yn,Xn)=Z(1)min(Yn,Xn)=Z(1)\min(Y_n,X_n)= Z_{(1)}จะกระจายเป็น1−(1−za)2n1−(1−za)2n1 - (1 - \frac{z}{a})^{2n} ความหนาแน่นสามารถพบได้ง่ายเหมือนกับfZ1(z)=(2n)(1−za)2n−11afZ1(z)=(2n)(1−za)2n−11af_{Z_{1}}(z) = (2n)(1-\frac{z}{a})^{2n-1}\frac{1}{a}และfZ(2n)(z)=(2n)(za)2n−11afZ(2n)(z)=(2n)(za)2n−11af_{Z_{(2n)}}(z) = (2n)(\frac{z}{a})^{2n-1} \frac{1}{a} นี่คือที่ฉันมีเวลายากที่จะรู้ว่าจะไปที่ไหนต่อไปตอนนี้สิ่งเหล่านี้จะถูกคำนวณ ฉันคิดว่ามันต้องทำอะไรบางอย่างกับการเปลี่ยนแปลง แต่ฉันไม่แน่ใจ ...

1
ความแปรปรวนของความสัมพันธ์กับการแปลงเชิงเส้น:
นี่เป็นหนึ่งในปัญหาในBasic Econometricsรุ่นที่ 4 (Q3.11) ของ Gujarati และกล่าวว่าสัมประสิทธิ์สหสัมพันธ์นั้นมีค่าคงที่เมื่อเทียบกับการเปลี่ยนแปลงของต้นกำเนิดและมาตราส่วนนั่นคือโดยที่ , , ,เป็นค่าคงที่โดยพลการcorr ( a X)+ b , c Y+ d) = corr ( X, วาย)corr(aX+b,cY+d)=corr(X,Y)\text{corr}(aX+b, cY+d) = \text{corr}(X,Y)aaaขbbคccddd แต่คำถามหลักของฉันคือต่อไปนี้: Letและจะจับคู่สังเกตและคิดว่าและมีความสัมพันธ์ในเชิงบวกคือ 0 ฉันรู้ว่าจะเป็นลบตามสัญชาตญาณ อย่างไรก็ตามถ้าเราใช้ , มันจะตามมาว่าซึ่งทำ ไม่สมเหตุสมผลXXXYYYXXXYYYcorr ( X), วาย) > 0corr(X,Y)>0\text{corr}(X,Y)>0corr ( - X, วาย)corr(-X,Y)\text{corr}(-X,Y)a = - 1 , b = 0 …

3
วิธีการพิสูจน์ว่า
ฉันพยายามสร้างความไม่เท่าเทียมกัน |Ti|=∣∣Xi−X¯∣∣S≤n−1n−−√|Ti|=|Xi−X¯|S≤n−1n\left| T_i \right|=\frac{\left|X_i -\bar{X} \right|}{S} \leq\frac{n-1}{\sqrt{n}} โดยที่คือค่าเฉลี่ยตัวอย่างและเป็นส่วนเบี่ยงเบนมาตรฐานตัวอย่างนั่นคือ {n-1}}X¯X¯\bar{X}SSSS=∑ni=1(Xi−X¯)2n−1−−−−−−−−−√S=∑i=1n(Xi−X¯)2n−1S=\sqrt{\frac{\sum_{i=1}^n \left( X_i -\bar{X} \right)^2}{n-1}} มันง่ายที่จะเห็นว่าและแต่สิ่งนี้ไม่ใกล้เคียงกับสิ่งที่ฉันค้นหามามากและมันก็ไม่มีประโยชน์ ฉันได้ทดลองกับ Cauchy-Schwarz และความไม่เท่าเทียมกันของรูปสามเหลี่ยม แต่ไม่มีที่ไหนเลย จะต้องมีขั้นตอนที่บอบบางที่ฉันหายไปที่ไหนสักแห่ง ฉันขอขอบคุณความช่วยเหลือบางส่วนขอบคุณ∑ni=1T2i=n−1∑i=1nTi2=n−1\sum_{i=1}^n T_i^2 = n-1 |Ti|&lt;n−1−−−−−√|Ti|&lt;n−1\left| T_i \right| < \sqrt{n-1}

1
การเพิ่มระดับความลาดชันเป็นเหมือนการไล่ระดับสี
ฉันกำลังอ่านรายการ Wikipedia ที่เป็นประโยชน์เกี่ยวกับการเพิ่มการไล่ระดับสี ( https://en.wikipedia.org/wiki/Gradient_boosting ) และพยายามเข้าใจว่า / ทำไมเราสามารถประมาณส่วนที่เหลือโดยขั้นบันไดที่ลาดชัน (หรือที่เรียกว่าการไล่ระดับสีเทียม) ) ทุกคนสามารถให้สัญชาตญาณการเชื่อมโยงที่ลาดชัน / คล้ายกับของที่เหลือได้อย่างไร ช่วยชื่นชมมาก!

4
จำนวนที่คาดหวังของการทอยลูกเต๋าต้องทำให้ผลรวมมากกว่าหรือเท่ากับ K?
6 ด้านรีดตายซ้ำแล้วซ้ำอีก จำนวนม้วนที่คาดหวังจำเป็นต้องมีเพื่อให้ผลรวมมากกว่าหรือเท่ากับ K คืออะไร ก่อนที่จะแก้ไข P(Sum&gt;=1 in exactly 1 roll)=1 P(Sum&gt;=2 in exactly 1 roll)=5/6 P(Sum&gt;=2 in exactly 2 rolls)=1/6 P(Sum&gt;=3 in exactly 1 roll)=5/6 P(Sum&gt;=3 in exactly 2 rolls)=2/6 P(Sum&gt;=3 in exactly 3 rolls)=1/36 P(Sum&gt;=4 in exactly 1 roll)=3/6 P(Sum&gt;=4 in exactly 2 rolls)=3/6 P(Sum&gt;=4 in exactly 3 …

1
อัลกอริทึม EM ประมาณการพารามิเตอร์ในแบบจำลองผสมแบบเกาส์หรือไม่
ฉันกำลังศึกษารูปแบบส่วนผสมของเกาส์เซียนและเกิดขึ้นกับคำถามนี้ด้วยตัวเอง สมมติว่าข้อมูลพื้นฐานถูกสร้างขึ้นจากการผสมผสานของการแจกแจงแบบเกาส์กันและแต่ละคนมีค่าเฉลี่ยของเวกเตอร์โดยที่และแต่ละคนมีค่าเดียวกัน เมทริกซ์ความแปรปรวนและถือว่านี้เป็นเมทริกซ์แนวทแยง และสมมติว่าอัตราส่วนการผสมคือกล่าวคือแต่ละกลุ่มมีน้ำหนักเท่ากันKKKμk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p1≤k≤K1≤k≤K1\leq k\leq KΣΣ\SigmaΣΣ\Sigma1/K1/K1/K ดังนั้นในตัวอย่างนี้เหมาะที่งานเพียงอย่างเดียวคือการประมาณพาหะเฉลี่ยที่และเมทริกซ์ร่วมแปรปรวน\KKKμk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p1≤k≤K1≤k≤K1\leq k\leq KΣΣ\Sigma คำถามของฉันคือ: ถ้าเราใช้อัลกอริทึม EM เราจะสามารถประมาณและอย่างต่อเนื่องเช่นเมื่อขนาดตัวอย่างตัวประมาณที่อัลกอริทึม EM จะสร้างให้ได้ค่าที่แท้จริงของและ ?μkμk\mu_kΣΣ\Sigman→∞n→∞n\rightarrow\inftyμkμk\mu_kΣΣ\Sigma

1
ถ้า
นี่คือปัญหาที่เกิดขึ้นในการสอบภาคการศึกษาในมหาวิทยาลัยของเราไม่กี่ปีหลังซึ่งฉันพยายามที่จะแก้ปัญหา ถ้า X1,X2X1,X2X_1,X_2 มีความเป็นอิสระ ββ\beta ตัวแปรสุ่มที่มีความหนาแน่น β(n1,n2)β(n1,n2)\beta(n_1,n_2) และ β(n1+12,n2)β(n1+12,n2)\beta(n_1+\dfrac{1}{2},n_2) ตามลำดับแล้วแสดงว่า X1X2-----√X1X2\sqrt{X_1X_2} ดังต่อไปนี้ β( 2)n1, 2n2)β(2n1,2n2)\beta(2n_1,2n_2). ฉันใช้วิธีจาโคเบียนเพื่อรับความหนาแน่นของ Y=X1X2-----√Y=X1X2Y=\sqrt{X_1X_2} มีดังนี้: ฉY( y) =4Y2n1B (n1,n2) B (n1+12,n2)∫1Y1x2( 1 -x2)n2- 1( 1 -Y2x2)n2- 1dxfY(y)=4y2n1B(n1,n2)B(n1+12,n2)∫y11x2(1−x2)n2−1(1−y2x2)n2−1dxf_Y(y)=\dfrac{4y^{2n_1}}{B(n_1,n_2)B(n_1+\dfrac{1}{2},n_2)}\int_y^1\dfrac{1}{x^2}(1-x^2)^{n_2-1}(1-\dfrac{y^2}{x^2})^{n_2-1}dx ตอนนี้ฉันหลงทางไปแล้ว ตอนนี้ในบทความหลักฉันพบว่ามีการให้คำใบ้ ฉันพยายามใช้คำใบ้ แต่ไม่สามารถรับการแสดงออกที่ต้องการ คำใบ้คือคำต่อคำดังนี้ คำแนะนำ: หาสูตรสำหรับความหนาแน่นของ Y=X1X2-----√Y=X1X2Y=\sqrt{X_1X_2} ในแง่ของความหนาแน่นที่กำหนดของ X1X1X_1 และ X2X2X_2 และลองใช้การเปลี่ยนแปลงของตัวแปรด้วย Z=Y2xz=y2xz=\dfrac{y^2}{x}. ดังนั้น ณ จุดนี้ฉันพยายามใช้ประโยชน์จากคำใบ้นี้โดยพิจารณาการเปลี่ยนแปลงของตัวแปรนี้ ดังนั้นฉันได้รับฉY( y) =4Y2n1B …

1
วิธีการออกกำลังกาย 2.2a.16 ของ“ สถิติที่แข็งแกร่ง: วิธีการที่อยู่บนพื้นฐานของฟังก์ชั่นอิทธิพล”
ในหน้า 180 ของสถิติที่แข็งแกร่ง: วิธีการที่ขึ้นอยู่กับฟังก์ชั่นอิทธิพลหนึ่งพบคำถามต่อไปนี้: 16: แสดงว่าสำหรับประมาณค่าสถานที่ค่าคงที่เสมอ {2} ค้นหาขอบเขตบนที่สอดคล้องกันในจุดแยกตัวอย่าง จำกัดทั้งในกรณีที่เป็นเลขคี่หรือเป็นคู่ε∗≤12ε∗≤12\varepsilon^*\leq\frac{1}{2}ε∗nεn∗\varepsilon^*_nnnnnnn ส่วนที่สอง (หลังจากช่วงเวลา) เป็นเรื่องเล็กน้อย (ให้ไว้ก่อน) แต่ฉันไม่สามารถหาวิธีที่จะพิสูจน์ส่วนแรก (ประโยค) ของคำถาม ในส่วนของหนังสือที่เกี่ยวข้องกับคำถามนี้พบ (p98): คำจำกัดความ 2: จุดแตกหักตัวอย่าง จำกัดของตัวประมาณที่ตัวอย่างมอบให้โดย:ε∗nεn∗\varepsilon^*_nTnTnT_n(xl,…,xn)(xl,…,xn)(x_l,\ldots, x_n) ε∗n(Tn;xi,…,xn):=1nmax{m:maxi1,…,imsupy1,…,ym|Tn(z1,…,zn)|&lt;∞}εn∗(Tn;xi,…,xn):=1nmax{m:maxi1,…,imsupy1,…,ym|Tn(z1,…,zn)|&lt;∞}\varepsilon^*_n(T_n;x_i,\ldots,x_n):=\frac{1}{n}\max\{m:\max_{i_1,\ldots,i_m}\sup_{y_1,\ldots,y_m}\;|T_n(z_1,\ldots,z_n)|<\infty\} โดยที่ตัวอย่าง(z1,…,zn)(z1,…,zn)(z_1,\ldots,z_n)ได้มาจากการแทนที่mmm data points xi1,…,ximxi1,…,ximx_{i_1},\ldots,x_{i_m}ด้วยค่าที่กำหนดเอง y1,…,ym.y1,…,ym.y_1,\ldots,y_m. คำนิยามอย่างเป็นทางการของตัวมันเองทำงานเกือบหนึ่งหน้า แต่สามารถคิดได้ว่าเป็น แม้ว่าจะไม่ได้กำหนดไว้อย่างชัดเจน สามารถเดาได้ว่าตำแหน่งที่ไม่แปรเปลี่ยนหมายความว่าต้องเป็นไปตาม ε∗ε∗\varepsilon^*ε∗=limn→∞ε∗nε∗=limn→∞εn∗\varepsilon^*=\underset{n\rightarrow\infty}{\lim}\varepsilon^*_nTnTnT_nTn(x1,…,xn)=Tn(x1+c,…,xn+c), for all c∈RTn(x1,…,xn)=Tn(x1+c,…,xn+c), for all c∈RT_n(x_1,\ldots,x_n)= T_n(x_1+c,\ldots,x_n+c), \text{ for all } c\in \Bbb{R} ฉัน (ลอง) ตอบคำถามของ …

1
ทวินามลบนั้นไม่สามารถแสดงออกได้เหมือนในตระกูลเอ็กซ์โพเนนเชียลหรือไม่ถ้ามี 2 นิรนาม?
ฉันมีการบ้านเพื่อแสดงการกระจายตัวแบบทวินามลบเป็นตระกูลการแจกแจงแบบเลขชี้กำลังเนื่องจากพารามิเตอร์การกระจายตัวเป็นค่าคงที่ที่รู้จัก นี่ค่อนข้างง่าย แต่ฉันสงสัยว่าทำไมพวกเขาถึงต้องการให้เราเก็บพารามิเตอร์นั้นไว้ ฉันพบว่าฉันไม่สามารถหาวิธีที่จะใส่มันในรูปแบบที่ถูกต้องโดยไม่ทราบพารามิเตอร์สองตัว ดูออนไลน์ฉันพบการอ้างสิทธิ์ว่าเป็นไปไม่ได้ อย่างไรก็ตามฉันไม่พบหลักฐานว่านี่เป็นเรื่องจริง ฉันดูเหมือนจะไม่เกิดขึ้นกับตัวเองอย่างใดอย่างหนึ่ง ใครบ้างมีข้อพิสูจน์เรื่องนี้? ตามที่ร้องขอด้านล่างนี้ฉันได้แนบข้อเรียกร้องสองสามข้อ: "ตระกูลการแจกแจงลบแบบทวินามที่มีจำนวนความล้มเหลวคงที่ (aka พารามิเตอร์การหยุดเวลา) r คือตระกูลแบบเอ็กซ์โพเนนเชียลอย่างไรก็ตามเมื่อพารามิเตอร์คงที่ใด ๆ ที่กล่าวถึงข้างต้นได้รับอนุญาตให้เปลี่ยนแปลง " http://en.wikipedia.org/wiki/Exponential_family "การแจกแจงทวินามลบสองพารามิเตอร์ไม่ได้เป็นสมาชิกของตระกูลเอ็กซ์โพเนนเชียล แต่ถ้าเราปฏิบัติต่อพารามิเตอร์การกระจายตัวเป็นค่าคงที่ที่รู้จักกันคงที่แล้วมันก็เป็นสมาชิก" http://www.unc.edu/courses/2006spring/ecol/145/001/docs/lectures/lecture21.htm

1
การหาเวกเตอร์ cointegration โดยใช้วิธี Johansen
ฉันพยายามเข้าใจวิธี Johansen ให้ดีขึ้นดังนั้นฉันจึงพัฒนาตัวอย่าง 3.1 ที่ได้รับจากหนังสือLikelihood-Based-Inference-Cointegrated-Autoregressive-Econometrics ที่เรามีสามกระบวนการ: X1t=∑i=1tϵ1i+ϵ2tX1t=∑i=1tϵ1i+ϵ2tX_{1t} = \sum_{i=1}^t \epsilon_{1i} + \epsilon_{2t} X2t=α∑i=1tϵ1i+ϵ3tX2t=α∑i=1tϵ1i+ϵ3t X_{2t} = \alpha \sum_{i=1}^t \epsilon_{1i} + \epsilon_{3t} X3t=ϵ4tX3t=ϵ4t X_{3t} = \epsilon_{4t} ดังนั้นเวกเตอร์ cointegration ควรเป็น [a, -1, 0] และ [0, 0 1] แต่เมื่อฉันใช้วิธี Johansen ฉันไม่สามารถรับพวกเขาได้ รหัสที่ฉันพยายามทำมีดังต่อไปนี้: import numpy as np import matplotlib.pyplot as plt import pandas as pd …

1
CDF สองตัวอย่างของและจากการทดสอบ Kolmogorov-Smirnov ด้านเดียวคืออะไร
ฉันพยายามที่จะเข้าใจวิธีการรับค่าสำหรับการทดสอบ Kolmogorov-Smirnov ด้านเดียวและฉันพยายามหา CDF สำหรับและในกรณีตัวอย่างสองตัวอย่าง ด้านล่างนี้ถูกอ้างถึงในบางแห่งเนื่องจาก CDF สำหรับในกรณีตัวอย่างเดียว:pppD+n1,n2Dn1,n2+D^{+}_{n_{1},n_{2}}D−n1,n2Dn1,n2−D^{-}_{n_{1},n_{2}}D+nDn+D^{+}_{n} p+n(x)=P(D+n≥x|H0)=x∑j=0⌊n(1−x)⌋(nj)(jn+x)j−1(1−x−jn)n−jpn+(x)=P(Dn+≥x|H0)=x∑j=0⌊n(1−x)⌋(nj)(jn+x)j−1(1−x−jn)n−jp^{+}_{n}\left(x\right) = \text{P}\left(D^{+}_{n} \ge x | \text{H}_{0}\right) = x\sum_{j=0}^{\lfloor n\left(1-x\right)\rfloor}{ \binom{n}{j} \left(\frac{j}{n}+x\right)^{j-1}\left(1 - x - \frac{j}{n}\right)^{n-j}} นอกจากนี้ whuber sez มีสูตรที่แตกต่างกันเล็กน้อยของ CDF ตัวอย่างหนึ่งนี้ (ฉันแทนxxxสำหรับtttในเครื่องหมายคำพูดของเขาเพื่อความสอดคล้องกับสัญกรณ์ของฉันที่นี่): การใช้การแปลงค่าความน่าจะเป็นแบบครบวงจร, Donald Knuth ได้มาจากการแจกแจง (ร่วมกัน) บน p 57 และออกกำลังกาย 17 ของTAoCPเล่ม 2 ฉันพูด: (D+n≤xn−−√)=xnn∑c≤k≤x(nk)(k−x)k(x+n−k)n−k−1(Dn+≤xn)=xnn∑c≤k≤x(nk)(k−x)k(x+n−k)n−k−1\left(D^{+}_{n}\le \frac{x}{\sqrt{n}}\right)=\frac{x}{n^{n}}\sum_{c\le k\le x}\binom{n}{k}\left(k-x\right)^{k}\left(x+n-k\right)^{n-k-1} สิ่งนี้จะนำไปใช้กับสมมติฐานด้านเดียวในกรณีตัวอย่างหนึ่งตัวอย่างเช่น: H …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.