คำถามติดแท็ก steins-phenomenon

5
มุมมองแบบรวมเกี่ยวกับการหดตัว: ความสัมพันธ์ (ถ้ามี) ระหว่างความขัดแย้งของสไตน์การถดถอยของสันเขาและผลกระทบแบบสุ่มในแบบผสมคืออะไร?
พิจารณาสามปรากฏการณ์ต่อไปนี้ ความขัดแย้งของสไตน์: ได้รับข้อมูลจากการแจกแจงปกติหลายตัวแปรในค่าเฉลี่ยตัวอย่างไม่ใช่ค่าประมาณที่ดีมากของค่าเฉลี่ยที่แท้จริง เราสามารถได้ค่าประมาณที่มีความคลาดเคลื่อนกำลังสองต่ำกว่าถ้ามีการลดขนาดพิกัดทั้งหมดของค่าเฉลี่ยตัวอย่างไปยังศูนย์ [หรือไปสู่ค่าเฉลี่ยของพวกเขาหรือจริงต่อค่าใด ๆ ถ้าฉันเข้าใจถูกต้อง]Rn,n≥3Rn,n≥3\mathbb R^n, \: n\ge 3 หมายเหตุ: มักจะเป็นสูตรของสไตน์โดยพิจารณาจากจุดข้อมูลเดียว ; โปรดแก้ไขฉันหากนี่เป็นสิ่งสำคัญและสูตรของฉันด้านบนไม่ถูกต้องRnRn\mathbb R^n สันถดถอย: ให้ตัวแปรและตัวแปรอิสระบางตัว , การถดถอยมาตรฐานมีแนวโน้ม เพื่อให้ข้อมูลเหมาะสมและนำไปสู่ประสิทธิภาพที่ไม่ดีตัวอย่าง หนึ่งมักจะสามารถลดการหดตัวโดยอิงต่อศูนย์:YX β = ( X ⊤ X ) - 1 X ⊤ Y β β = ( X ⊤ X + λ ฉัน) - 1 X ⊤ Yyy\mathbf yXX\mathbf …

2
สัญชาตญาณว่าทำไมความขัดแย้งของสไตน์จึงนำมาใช้ในมิติ
สไตน์ตัวอย่างแสดงให้เห็นว่าการประมาณการความน่าจะเป็นสูงสุดของตัวแปรกระจายตามปกติด้วยวิธีการและผลต่างคือไม่ยอมรับ (ภายใต้ฟังก์ชั่นการสูญเสียตาราง) IFF3 สำหรับการพิสูจน์ที่เป็นระเบียบดูบทแรกของการอนุมานขนาดใหญ่: วิธีการเชิงประจักษ์เบย์สำหรับการประมาณค่าการทดสอบและการทำนายโดยแบรดลีย์เอฟรอนnnnμ1,…,μnμ1,…,μn\mu_1,\ldots,\mu_n111n≥3n≥3n\ge 3 นี่เป็นเรื่องน่าประหลาดใจอย่างมากสำหรับฉันในตอนแรก แต่มีปรีชาอยู่เบื้องหลังว่าทำไมคน ๆ หนึ่งคาดว่าการประมาณมาตรฐานจะไม่สามารถยอมรับได้ (โดยเฉพาะอย่างยิ่งถ้าจากนั้นตามที่ระบุไว้ในกระดาษต้นฉบับของ Stein ซึ่งเชื่อมโยงกับด้านล่าง)x∼N(μ,1)x∼N(μ,1)x \sim \mathcal N(\mu,1)E∥x∥2≈∥μ∥2+nE‖x‖2≈‖μ‖2+n\mathbb{E}\|x\|^2\approx \|\mu\|^2+n คำถามของฉันค่อนข้างจะ: คุณสมบัติใดของช่องว่างnnn -dimensional (สำหรับn≥3n≥3n\ge 3 ) R2R2\mathbb{R}^2ขาดอะไรบ้างที่อำนวยความสะดวกให้ตัวอย่างของ Stein? คำตอบที่เป็นไปได้อาจเกี่ยวกับความโค้งของnnnกลมหรือสิ่งที่แตกต่างอย่างสิ้นเชิง ในคำอื่น ๆ เหตุผลที่เป็นที่ยอมรับใน MLE R2R2\mathbb{R}^2 ? แก้ไข 1:เพื่อตอบสนองต่อ @mpiktas กังวลเกี่ยวกับ 1.31 จาก 1.30: Eμ(∥z−μ^∥2)=Eμ(S(N−2S)2)=Eμ((N−2)2S).Eμ(‖z−μ^‖2)=Eμ(S(N−2S)2)=Eμ((N−2)2S).E_\mu\left(\|z-\hat{\mu}\|^2\right)=E_\mu\left(S\left(\frac{N-2}{S}\right)^2\right)=E_\mu\left(\frac{(N-2)^2}{S}\right). μi^=(1−N−2S)ziμi^=(1−N−2S)zi\hat{\mu_i} = \left(1-\frac{N-2}{S}\right)z_iดังนั้นEμ(∂μi^∂zi)=Eμ(1−N−2S+2z2iS2).Eμ(∂μi^∂zi)=Eμ(1−N−2S+2zi2S2).E_\mu\left(\frac{\partial\hat{\mu_i}}{\partial z_i} \right)=E_\mu\left( 1-\frac{N-2}{S}+2\frac{z_i^2}{S^2}\right).ดังนั้นเราจึงมี: 2∑i=1NEμ(∂μi^∂zi)=2N−2Eμ(N(N−2)S)+4Eμ((N−2)S)=2N−Eμ2(N−2)2S.2∑i=1NEμ(∂μi^∂zi)=2N−2Eμ(N(N−2)S)+4Eμ((N−2)S)=2N−Eμ2(N−2)2S.2\sum_{i=1}^N E_\mu\left(\frac{\partial\hat{\mu_i}}{\partial z_i} \right)=2N-2E_\mu\left(\frac{N(N-2)}{S}\right)+4E_\mu\left(\frac{(N-2)}{S}\right)\\=2N-E_\mu\frac{2(N-2)^2}{S}. …

1
ไม่สไตน์ Paradox ยังคงถือเมื่อใช้
สไตน์ของ Paradoxแสดงให้เห็นว่าเมื่อมีการประมาณสามพารามิเตอร์หรือมากกว่าพร้อมกันมีตัวประมาณรวมที่แม่นยำกว่าโดยเฉลี่ย (นั่นคือการมีข้อผิดพลาดกำลังสองเฉลี่ยต่ำกว่าที่คาดไว้) กว่าวิธีการใด ๆ ที่จัดการพารามิเตอร์แยกกัน นี่เป็นผลลัพธ์ที่ขัดจังหวะอย่างมาก ผลลัพธ์เดียวกันนี้มีไว้หรือไม่หากแทนที่จะใช้บรรทัดฐาน (ข้อผิดพลาดกำลังสองเฉลี่ยที่คาดหวัง) เราจะใช้บรรทัดฐานl 1 (คาดว่าจะเป็นข้อผิดพลาดแบบสัมบูรณ์) หรือไม่l2l2l_2l1l1l_1

4
ค่าที่ถูกต้องสำหรับความแม่นยำและการเรียกคืนในกรณีขอบคืออะไร?
ความแม่นยำหมายถึง: p = true positives / (true positives + false positives) มันถูกต้องหรือไม่ที่ในฐานะtrue positivesและfalse positivesวิธีที่ 0 ความแม่นยำเข้าใกล้ 1? คำถามเดียวกันสำหรับการเรียกคืน: r = true positives / (true positives + false negatives) ขณะนี้ฉันกำลังใช้การทดสอบทางสถิติที่ฉันต้องการคำนวณค่าเหล่านี้และบางครั้งมันก็เกิดขึ้นที่ตัวส่วนเป็น 0 และฉันสงสัยว่าจะคืนค่าใดให้กับกรณีนี้ PS: ขอโทษแท็กที่ไม่เหมาะสมผมอยากจะใช้recall, precisionและlimitแต่ฉันไม่สามารถสร้างแท็กใหม่ ๆ
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

1
ทำไมตัวประมาณ James-Stein จึงเรียกตัวประมาณว่า
ฉันได้อ่านเกี่ยวกับตัวประมาณ James-Stein มันถูกกำหนดไว้ในบันทึกนี้เป็น θ^=(1−p−2∥X∥2)Xθ^=(1−p−2‖X‖2)X \hat{\theta}=\left(1 - \frac{p-2}{\|X\|^2}\right)X ฉันได้อ่านหลักฐานแล้ว แต่ฉันไม่เข้าใจข้อความต่อไปนี้: ตัวประเมินเจมส์ - สไตน์ย่อตัวส่วนประกอบแต่ละส่วนของเข้าหาจุดกำเนิด ...XXX "ย่อส่วนแต่ละส่วนของไปทางต้นกำเนิด" หมายความว่าอย่างไร ฉันกำลังคิดว่าจะชอบ ซึ่งเป็นจริงในกรณีนี้ตราบใดที่ตั้งแต่ ‖ θ - 0 ‖ 2 < ‖ X - 0 ‖ 2 , ( P + 2 ) < ‖ X ‖ 2 ‖ θ ‖ = ‖ X ‖ 2 - …

2
ตัวประเมิน James-Stein: Efron และ Morris คำนวณ
ฉันมีคำถามเกี่ยวกับการคำนวณปัจจัยเจมส์สไตน์การหดตัวในส่วนกระดาษ 1,977 วิทยาศาสตร์อเมริกันโดยแบรดลีย์ Efron และคาร์ลมอร์ริส "สไตน์ Paradox สถิติ" ฉันรวบรวมข้อมูลสำหรับผู้เล่นเบสบอลและได้รับด้านล่าง: Name, avg45, avgSeason Clemente, 0.400, 0.346 Robinson, 0.378, 0.298 Howard, 0.356, 0.276 Johnstone, 0.333, 0.222 Berry, 0.311, 0.273 Spencer, 0.311, 0.270 Kessinger, 0.289, 0.263 Alvarado, 0.267, 0.210 Santo, 0.244, 0.269 Swoboda, 0.244, 0.230 Unser, 0.222, 0.264 Williams, 0.222, 0.256 Scott, 0.222, …

5
การหดตัวของเจมส์ - สไตน์ 'อยู่ในป่า'?
ฉันถูกจับโดยความคิดเรื่องการหดตัวของเจมส์ - สไตน์ (นั่นคือฟังก์ชั่นแบบไม่เชิงเส้นของการสังเกตเพียงครั้งเดียวของเวกเตอร์ที่มีบรรทัดฐานอิสระอาจเป็นตัวประมาณที่ดีกว่าของวิธีการของตัวแปรสุ่ม ) อย่างไรก็ตามฉันไม่เคยเห็นมันในงานที่นำไปใช้ เห็นได้ชัดว่าฉันอ่านไม่ดีพอ มีตัวอย่างคลาสสิกที่เจมส์ - สไตน์ปรับปรุงการประมาณค่าในการตั้งค่าที่ใช้หรือไม่? ถ้าไม่การหดตัวแบบนี้เป็นเพียงความอยากรู้ทางปัญญาหรือไม่?

1
มีการเชื่อมต่อระหว่างเบย์เชิงประจักษ์กับเอฟเฟกต์แบบสุ่มหรือไม่?
เมื่อไม่นานมานี้ฉันได้อ่านเกี่ยวกับการทดลอง Bayes (Casella, 1985, การแนะนำการวิเคราะห์ข้อมูลเชิงประจักษ์ Bayes) และมันดูคล้ายกับแบบจำลองเอฟเฟกต์แบบสุ่ม; ในที่ทั้งสองมีการประมาณการหดตัวถึงค่าเฉลี่ยทั่วโลก แต่ฉันยังไม่ได้อ่านอย่างละเอียด ... ใครบ้างมีความเข้าใจอย่างถ่องแท้เกี่ยวกับความเหมือนและความแตกต่างระหว่างพวกเขาบ้างไหม?

1
เครื่องมือประมาณการ James-Stein ที่มีความแปรปรวนไม่เท่ากัน
ทุกคำสั่งที่ฉันพบของตัวประมาณ James-Stein ถือว่าตัวแปรสุ่มที่ถูกประมาณนั้นมีความแปรปรวน (และหน่วย) เหมือนกัน แต่ตัวอย่างทั้งหมดเหล่านี้ยังพูดถึงว่าตัวประมาณ JS สามารถใช้ในการประมาณปริมาณโดยไม่เกี่ยวข้องกัน ตัวอย่างเช่นวิกิพีเดียคือความเร็วของแสงการบริโภคกาแฟในไต้หวันและน้ำหนักหมูในมอนแทนา แต่สมมุติว่าการวัดปริมาณทั้งสามนี้ของคุณจะมีความแปรปรวน "ที่แท้จริง" ที่แตกต่างกัน สิ่งนี้นำเสนอปัญหาหรือไม่? สิ่งนี้เชื่อมโยงกับปัญหาเชิงแนวคิดที่ใหญ่กว่าซึ่งฉันไม่เข้าใจเกี่ยวข้องกับคำถามนี้: ตัวประเมินเจมส์ - สไตน์: Efron และมอร์ริสคำนวณในปัจจัยการหดตัวอย่างเบสบอลของพวกเขาอย่างไร σ2σ2\sigma^2 cเราคำนวณปัจจัยการหดตัวดังนี้คcc c = 1 - ( k - 3 ) σ2∑ ( y- y¯)2c=1−(k−3)σ2∑(y−y¯)2 c = 1 - \frac{(k-3) \sigma^2} {\sum (y - \bar{y})^2} ฉันคิดว่าเทอมนั้นจริง ๆ แล้ว - ต่างกันสำหรับแต่ละปริมาณที่ประมาณไว้ แต่การสนทนาในคำถามนั้นพูดถึงการใช้ความแปรปรวนร่วมเท่านั้น …
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.