คำถามติดแท็ก approximation

การประมาณค่าการแจกแจงฟังก์ชันหรือวัตถุทางคณิตศาสตร์อื่น ๆ การประมาณค่าบางอย่างหมายถึงการหาตัวแทนของมันซึ่งง่ายกว่าในบางแง่ แต่ไม่แน่นอน

1
อสมการ Chebyshev ด้านเดียวสำหรับช่วงเวลาที่สูงขึ้น
มีอะนาล็อกในช่วงเวลาที่อสมการของ Chebyshev ที่สูงกว่าในกรณีด้านเดียวหรือไม่? ความไม่เท่าเทียมกันของ Chebyshev-Cantelli นั้นดูเหมือนจะทำงานเพื่อความแปรปรวนได้เท่านั้นในขณะที่ความไม่เท่าเทียมของ Chebyshevs นั้นสามารถสร้างขึ้นได้อย่างง่ายดายสำหรับเลขชี้กำลังทั้งหมด ไม่มีใครรู้ถึงความไม่เท่าเทียมด้านเดียวโดยใช้ช่วงเวลาที่สูงขึ้นหรือไม่?

3
การประมาณปรกติของการแจกแจงปัวซอง
ที่นี่ใน Wikipedia บอกว่า: สำหรับค่าที่มากพอของλλλ , (พูดλ>1000λ>1000λ>1000 ) การแจกแจงแบบปกติที่มีค่าเฉลี่ยλλλและความแปรปรวนλλλ (ค่าเบี่ยงเบนมาตรฐานλ−−√λ\sqrt{\lambda} ) เป็นค่าประมาณยอดเยี่ยมสำหรับการแจกแจงปัวซอง ถ้าλλλมากกว่า 10 แล้วการแจกแจงแบบปกติคือการประมาณที่ดีถ้าทำการแก้ไขความต่อเนื่องที่เหมาะสมคือP(X≤x),P(X≤x),P(X ≤ x),ที่ (ตัวพิมพ์เล็ก) xxxเป็นจำนวนเต็มไม่เป็นลบจะถูกแทนที่ด้วยP(X≤x+0.5).P(X≤x+0.5).P(X ≤ x + 0.5). FPoisson(x;λ)≈Fnormal(x;μ=λ,σ2=λ)FPoisson(x;λ)≈Fnormal(x;μ=λ,σ2=λ)F_\mathrm{Poisson}(x;\lambda) \approx F_\mathrm{normal}(x;\mu=\lambda,\sigma^2=\lambda) น่าเสียดายที่นี่ไม่ได้อ้างถึง ฉันต้องการที่จะแสดง / พิสูจน์สิ่งนี้ด้วยความแม่นยำ คุณจะบอกได้อย่างไรว่าการกระจายตัวแบบปกตินั้นเป็นค่าประมาณที่ดีเมื่อλ>1000λ>1000\lambda > 1000คุณจะวัดปริมาณการประมาณ 'ยอดเยี่ยม' นี้ได้อย่างไรใช้มาตรการใด สิ่งที่ไกลที่สุดที่ฉันเคยได้รับกับเรื่องนี้คือที่นี่ที่จอห์นพูดถึงเกี่ยวกับการใช้ทฤษฎีบท Berry - Esseen และใกล้เคียงกับข้อผิดพลาดในสอง CDFs จากสิ่งที่ฉันสามารถดูเขาไม่ได้พยายามที่ค่าใด ๆλ≥1000λ≥1000\lambda \geq 10001000

1
การทดสอบที่แน่นอนของฟิชเชอร์และการกระจาย hypergeometric
ฉันต้องการที่จะเข้าใจการทดสอบที่แม่นยำของฟิชเชอร์มากขึ้นดังนั้นฉันจึงคิดค้นตัวอย่างของเล่นต่อไปนี้โดยที่ f และ m สอดคล้องกับเพศชายและเพศหญิงและ n และ y สอดคล้องกับ "การบริโภคโซดา" เช่นนี้: > soda_gender f m n 0 5 y 5 0 เห็นได้ชัดว่านี่คือการทำให้เข้าใจง่ายมาก แต่ฉันไม่ต้องการให้บริบทเข้ามาขวางทาง ที่นี่ฉันเพิ่งสันนิษฐานว่าผู้ชายไม่ดื่มโซดาและหญิงดื่มโซดาและต้องการดูว่าวิธีการทางสถิติมาถึงข้อสรุปเดียวกัน เมื่อฉันทำการทดสอบฟิชเชอร์ที่แน่นอนใน R ฉันจะได้ผลลัพธ์ต่อไปนี้: > fisher.test(soda_gender) Fisher's Exact Test for Count Data data: soda_gender p-value = 0.007937 alternative hypothesis: true odds ratio is not equal to 1 …

1
ควรใช้การแก้ไของศาอิสระเพื่ออนุมานพารามิเตอร์ GLM หรือไม่?
คำถามนี้เป็นคำถามแรงบันดาลใจจากคำตอบ Martijn ของที่นี่ สมมติว่าเราเหมาะกับ GLM สำหรับหนึ่งพารามิเตอร์ตระกูลเช่นแบบทวินามหรือปัวซองและเป็นขั้นตอนที่น่าจะเป็นแบบเต็ม (ตรงข้ามกับ quasipoisson) จากนั้นความแปรปรวนเป็นฟังก์ชันของค่าเฉลี่ย ด้วยทวินาม:และ Poisson[X]var[X]=E[X]E[1−X]var[X]=E[X]E[1−X]\text{var}[X] = E[X]E[1-X]var[X]=E[X]var[X]=E[X]\text{var}[X] = E[X] ซึ่งแตกต่างจากการถดถอยเชิงเส้นเมื่อส่วนที่เหลือมีการแจกแจงปกติ, จำกัด การกระจายตัวอย่างที่แน่นอนของสัมประสิทธิ์เหล่านี้ไม่เป็นที่รู้จักมันเป็นชุดที่อาจซับซ้อนของผลลัพธ์และ covariates นอกจากนี้การใช้ประมาณการ GLM ของค่าเฉลี่ยที่นำมาใช้เป็นปลั๊กอินสำหรับประมาณการความแปรปรวนของผลที่ เช่นเดียวกับการถดถอยเชิงเส้นสัมประสิทธิ์มีการแจกแจงปกติแบบซีมโทติคและในการอนุมานตัวอย่าง จำกัด เราสามารถประมาณการกระจายตัวตัวอย่างด้วยเส้นโค้งปกติ คำถามของฉันคือ: เราได้อะไรจากการประมาณค่าการแจกแจงแบบ T กับการกระจายตัวตัวอย่างของสัมประสิทธิ์ในตัวอย่าง จำกัด หรือไม่? ในอีกด้านหนึ่งเรารู้ความแปรปรวน แต่เราไม่ทราบการกระจายที่แน่นอนดังนั้นการประมาณ T ดูเหมือนจะเป็นทางเลือกที่ผิดเมื่อตัวประมาณ bootstrap หรือ jackknife สามารถอธิบายความคลาดเคลื่อนเหล่านี้ได้อย่างเหมาะสม ในทางกลับกันบางทีความอนุรักษ์นิยมเล็กน้อยของการแจกแจงแบบทีเป็นที่นิยมในทางปฏิบัติ

1
ประมาณ
ฉันตั้งใจอ่านบทความ (ทางเศรษฐศาสตร์) ซึ่งมีการประมาณต่อไปนี้:เข้าสู่ระบบ( E( X) )เข้าสู่ระบบ⁡(E(X))\log(E(X)) เข้าสู่ระบบ( E( X) ) ≈ E( บันทึก( X) ) + 0.5 v a r ( บันทึก( X) )เข้าสู่ระบบ⁡(E(X))≈E(เข้าสู่ระบบ⁡(X))+0.5โวลต์aR(เข้าสู่ระบบ⁡(X))\log(E(X)) \approx E(\log(X))+0.5 \mathrm{var}(\log(X)) , ซึ่งผู้เขียนบอกว่าแน่นอนถ้า X เป็นบันทึกปกติ (ซึ่งฉันรู้) สิ่งที่ฉันไม่รู้คือวิธีการประมาณนี้ ฉันพยายามคำนวณลำดับที่สองโดยประมาณของ Taylor และสิ่งที่ฉันคิดไว้คือนิพจน์นี้: เข้าสู่ระบบ( E( X) ) ≈ E( บันทึก( X) ) + 0.5 v a r …

3
ประมาณ
เป็นวิธีที่ดีที่สุดที่จะใกล้เคียงกับสำหรับจำนวนเต็มสองจำนวนที่กำหนดเมื่อคุณรู้ว่าหมายถึงแปรปรวนเบ้และโด่งเกินของการกระจายต่อเนื่องและเป็นที่ชัดเจนจากการวัดรูปร่างและ (ไม่ใช่ศูนย์) ที่การประมาณปกติไม่เหมาะสมหรือไม่ม. , n μ σ 2 γ 1 γ 2 X γ 1 γ 2Pr[n≤X≤m]Pr[n≤X≤m]Pr[n \leq X \leq m]m,nm,nm,nμμ\muσ2σ2\sigma^2γ1γ1\gamma_1γ2γ2\gamma_2XXXγ1γ1\gamma_1γ2γ2\gamma_2 ปกติฉันจะใช้การประมาณค่าปกติกับการแก้ไขจำนวนเต็ม ... Pr[(n−½)≤X≤(m+½)]=Pr[(n−½)−μσ≤Z≤(m+½)−μσ]=Φ((m+½)−μσ)−Φ((n−½)−μσ)Pr[(n−½)≤X≤(m+½)]=Pr[(n−½)−μσ≤Z≤(m+½)−μσ]=Φ((m+½)−μσ)−Φ((n−½)−μσ)Pr[(n - \text{½})\leq X \leq (m + \text{½})] = Pr[\frac{(n - \text{½})-\mu}{\sigma}\leq Z \leq \frac{(m + \text{½})-\mu}{\sigma}] = \Phi(\frac{(m + \text{½})-\mu}{\sigma}) - \Phi(\frac{(n - \text{½})-\mu}{\sigma}) ... ถ้าความเบ้และความโด่งเกินเป็น …

1
กระบวนการแบบเกาส์ (การถดถอย) มีคุณสมบัติการประมาณค่าสากลหรือไม่?
ฟังก์ชันต่อเนื่องใด ๆ ใน [a, b] ซึ่ง a และ b เป็นตัวเลขจริงสามารถประมาณหรือใกล้กับฟังก์ชัน (ในบางบรรทัดฐาน) โดยกระบวนการ Gaussian (การถดถอย) ได้หรือไม่?

2
เทย์เลอร์ซีรีย์ประมาณการความคาดหวังของฟังก์ชั่นทั้งหมด (ทั้งหมด) เมื่อใด
รับความคาดหวังของรูปแบบสำหรับตัวแปรสุ่มบางตัวแปรและฟังก์ชันทั้งหมด (เช่นช่วงเวลาของการบรรจบกันเป็นเส้นจริงทั้งหมด)X f ( ⋅ )E(f(X))E(f(X))E(f(X))XXXf(⋅)f(⋅)f(\cdot) ฉันมีฟังก์ชั่นสร้างช่วงเวลาสำหรับและด้วยเหตุนี้สามารถคำนวณช่วงเวลาจำนวนเต็มได้อย่างง่ายดาย ใช้ชุดข้อมูลเทย์เลอร์รอบแล้วใช้ความคาดหวังในแง่ของชุดของช่วงเวลากลาง = f (\ mu) + \ sum_ {n = 2 } ^ {\ infty} \ frac {f ^ {(n)} (\ mu)} {n!} E \ left [(x - \ mu) ^ n \ right] ตัดชุดนี้ E_N (f (x) ) = f (\ mu) …


2
คำนวณ ROC curve สำหรับข้อมูล
ดังนั้นฉันมีการทดลอง 16 ครั้งที่ฉันพยายามพิสูจน์ตัวตนบุคคลจากลักษณะทางชีวภาพโดยใช้ Hamming Distance เกณฑ์ของฉันถูกตั้งไว้ที่ 3.5 ข้อมูลของฉันอยู่ด้านล่างและเฉพาะการทดลองใช้ 1 เท่านั้นคือ True Positive: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 จุดสับสนของฉันคือฉันไม่แน่ใจจริงๆเกี่ยวกับวิธีสร้าง ROC curve …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.