คำถามติดแท็ก confidence-interval

ช่วงความมั่นใจคือช่วงเวลาที่ครอบคลุมพารามิเตอร์ที่ไม่รู้จักด้วยความมั่นใจ ช่วงความเชื่อมั่นเป็นแนวคิดที่ใช้บ่อย พวกเขามักจะสับสนกับช่วงเวลาที่น่าเชื่อถือซึ่งเป็นแบบอะนาล็อกเบย์ (1α)%

2
การทดลองซ้ำส่วนใดที่จะมีขนาดผลภายในช่วงความมั่นใจ 95% ของการทดสอบครั้งแรก
มายึดติดกับสถานการณ์ในอุดมคติด้วยการสุ่มตัวอย่างประชากรเกาส์เซียนความแปรปรวนที่เท่าเทียมกันไม่มีการแฮ็ค P เป็นต้น ขั้นตอนที่ 1 คุณเรียกใช้การทดลองพูดเปรียบเทียบค่าเฉลี่ยตัวอย่างสองค่าและคำนวณช่วงความมั่นใจ 95% สำหรับความแตกต่างระหว่างค่าเฉลี่ยประชากรสองค่า ขั้นตอนที่ 2 คุณเรียกใช้การทดลองอื่น ๆ อีกมากมาย (หลักพัน) ความแตกต่างระหว่างค่าเฉลี่ยจะแตกต่างจากการทดสอบไปจนถึงการทดสอบเนื่องจากการสุ่มตัวอย่าง คำถาม: ส่วนต่างของค่าเฉลี่ยจากการรวบรวมการทดลองในขั้นตอนที่ 2 จะอยู่ในช่วงความมั่นใจของขั้นตอนที่ 1 ไม่สามารถตอบได้ ทุกอย่างขึ้นอยู่กับสิ่งที่เกิดขึ้นในขั้นตอนที่ 1 หากการทดสอบขั้นตอนที่ 1 นั้นผิดปกติมากคำตอบของคำถามอาจต่ำมาก ลองจินตนาการว่าทั้งสองขั้นตอนซ้ำหลายครั้ง (ด้วยขั้นตอนที่ 2 ซ้ำหลายครั้ง) ตอนนี้มันน่าจะเป็นไปได้แล้วฉันคิดว่าจะเกิดความคาดหวังว่าการทดลองซ้ำ ๆ โดยเฉลี่ยจะมีขนาดผลภายในช่วงความมั่นใจ 95% ของการทดลองครั้งแรก ดูเหมือนว่าคำตอบสำหรับคำถามเหล่านี้จำเป็นต้องเข้าใจเพื่อประเมินความสามารถในการทำซ้ำของการศึกษาซึ่งเป็นพื้นที่ร้อนแรงในขณะนี้

2
ความหมายที่แท้จริงของวงรีความมั่นใจ
การอ่านเกี่ยวกับความหมายที่แท้จริงของวงรีความมั่นใจ 95% ฉันมักจะเจอ 2 คำอธิบาย: วงรีที่มี 95% ของข้อมูล ไม่ใช่ด้านบน แต่เป็นวงรีที่อธิบายความแปรปรวนของข้อมูล ฉันไม่แน่ใจว่าฉันเข้าใจถูกต้อง แต่พวกเขาดูเหมือนว่าถ้ามีจุดข้อมูลใหม่เข้ามามีโอกาส 95% ที่ความแปรปรวนใหม่จะยังคงอยู่ในวงรี คุณช่วยส่องแสงได้ไหม?

1
ช่วงความมั่นใจถูกคำนวณสำหรับฟังก์ชัน ACF อย่างไร
ตัวอย่างเช่นใน R ถ้าคุณเรียกใช้acf()ฟังก์ชันมันจะทำการคำนวณ correlogram ตามค่าเริ่มต้นและดึงช่วงความมั่นใจ 95% ดูรหัสถ้าคุณโทรplot(acf_object, ci.type="white")คุณจะเห็น: qnorm((1 + ci)/2)/sqrt(x$n.used) เป็นขีด จำกัด สูงสุดของประเภทสัญญาณรบกวนสีขาว บางคนสามารถอธิบายทฤษฎีเบื้องหลังวิธีนี้ได้หรือไม่? ทำไมเราถึงได้ค่า qnorm เท่ากับ 1 + 0.95 แล้วหารด้วย 2 และหลังจากนั้นหารด้วยจำนวนการสังเกต

3
วิธีต่างๆในการสร้างช่วงความมั่นใจสำหรับอัตราต่อรองจากการถดถอยโลจิสติก
ฉันกำลังศึกษาวิธีสร้างช่วงความมั่นใจ 95% สำหรับอัตราส่วนอัตราต่อรองจากค่าสัมประสิทธิ์ที่ได้จากการถดถอยโลจิสติก ดังนั้นเมื่อพิจารณาถึงรูปแบบการถดถอยโลจิสติก log(p1−p)=α+βxlog⁡(p1−p)=α+βx \log\left(\frac{p}{1 - p}\right) = \alpha + \beta x \newcommand{\var}{\rm Var} \newcommand{\se}{\rm SE} เช่นนั้นx=0x=0x = 0สำหรับกลุ่มควบคุมและx=1x=1x = 1สำหรับกลุ่มเคส ฉันได้อ่านแล้วว่าวิธีที่ง่ายที่สุดคือการสร้าง 95% CI สำหรับββ\betaจากนั้นเราก็ใช้ฟังก์ชั่นเลขชี้กำลังนั่นคือ β^±1.96×SE(β^)→exp{β^±1.96×SE(β^)}β^±1.96×SE(β^)→exp⁡{β^±1.96×SE(β^)} \hat{\beta} \pm 1.96\times \se(\hat{\beta}) \rightarrow \exp\{\hat{\beta} \pm 1.96\times \se(\hat{\beta})\} คำถามของฉันคือ: อะไรคือเหตุผลทางทฤษฎีที่แสดงให้เห็นถึงขั้นตอนนี้? ฉันรู้ว่าodds ratio=exp{β}odds ratio=exp⁡{β}\mbox{odds ratio} = \exp\{\beta\}และตัวประมาณความน่าจะเป็นสูงสุดไม่เปลี่ยนแปลง อย่างไรก็ตามฉันไม่รู้จักการเชื่อมต่อระหว่างองค์ประกอบเหล่านี้ วิธีการเดลต้าควรสร้างช่วงความมั่นใจ 95% เช่นเดียวกับขั้นตอนก่อนหน้านี้หรือไม่ ใช้วิธีการเดลต้า exp{β^}∼˙N(β, …

2
ช่วงความเชื่อมั่นจริง ๆ แล้วเป็นการวัดความไม่แน่นอนของการประมาณค่าพารามิเตอร์หรือไม่
ฉันกำลังอ่านบทความในบล็อกของ William Briggs นักสถิติและคำกล่าวอ้างต่อไปนี้สนใจฉันที่จะพูดน้อยที่สุด คุณทำอะไรจากมัน ช่วงความมั่นใจคืออะไร? แน่นอนว่าเป็นสมการที่จะให้ช่วงเวลาสำหรับข้อมูลของคุณ มันมีไว้เพื่อให้การวัดความไม่แน่นอนของการประมาณการพารามิเตอร์ ทีนี้อย่างเคร่งครัดตามทฤษฎีของนักความถี่ - ซึ่งเราสามารถสรุปได้ว่าเป็นเรื่องจริง - สิ่งเดียวที่คุณสามารถพูดเกี่ยวกับ CI ที่คุณมีอยู่ในมือคือมูลค่าที่แท้จริงของพารามิเตอร์นั้นอยู่ในนั้นหรือไม่ นี่คือการพูดซ้ำซากดังนั้นจึงเป็นเรื่องจริงเสมอ ดังนั้น CI จึงไม่ได้ทำการวัดความไม่แน่นอนเลยในความเป็นจริงมันเป็นการออกกำลังกายที่ไร้ประโยชน์ในการคำนวณ ลิงก์: http://wmbriggs.com/post/3169/

3
จะเลือกระดับความมั่นใจได้อย่างไร
ฉันมักจะใช้ระดับความเชื่อมั่น 90% โดยยอมรับว่าสิ่งนี้มีระดับความไม่แน่นอนมากกว่า 95% หรือ 99% แต่มีแนวทางใดบ้างในการเลือกระดับความมั่นใจที่ถูกต้อง? หรือแนวทางสำหรับระดับความเชื่อมั่นที่ใช้ในด้านต่างๆ นอกจากนี้ในการตีความและนำเสนอระดับความเชื่อมั่นมีคำแนะนำในการเปลี่ยนตัวเลขเป็นภาษาหรือไม่ ตัวอย่างเช่นคำแนะนำเช่นนี้สำหรับ r ของ Pearson ( แก้ไข:คำอธิบายเหล่านี้มีไว้สำหรับสังคมศาสตร์): http://faculty.quinnipiac.edu/libarts/polsci/Statistics.html ปรับปรุง ขอบคุณสำหรับคำตอบด้านล่าง พวกเขาล้วนมีประโยชน์มีประโยชน์ลึกซึ้งและให้คำแนะนำ นอกจากนี้ด้านล่างเป็นบทความที่ดีเกี่ยวกับการเลือกระดับนัยสำคัญ (โดยพื้นฐานแล้วเป็นคำถามเดียวกัน) ที่ฉันได้พบขณะที่มองคำถามนี้ พวกเขาตรวจสอบสิ่งที่พูดในคำตอบด้านล่าง "นัยสำคัญของนัยสำคัญ 0.05 คืออะไร" http://www.p-value.info/2013/01/whats-significance-of-005-significance_6.html "บนต้นกำเนิดของนัยสำคัญทางสถิติที่ระดับ. 05" http://www.radford.edu/~jaspelme/611/Spring-2007/Cowles-n-Davis_Am-Psyc_orignis-of-05-level.pdf "วิธีการทางวิทยาศาสตร์: ข้อผิดพลาดทางสถิติ" http://www.nature.com/news/scientific-method-statistical-errors-1.14700

1
ทำไมไม่ใช้ bootstrap CIs เสมอไป
ฉันสงสัยว่า bootstrap CIs (และ BCa เป็น barticular) ทำงานกับข้อมูลที่กระจายแบบปกติได้อย่างไร ดูเหมือนว่าจะมีงานจำนวนมากที่ตรวจสอบประสิทธิภาพการทำงานของพวกเขาในการแจกแจงแบบต่าง ๆ แต่ไม่พบข้อมูลใด ๆ เกี่ยวกับข้อมูลที่กระจายตามปกติ เนื่องจากดูเหมือนเป็นสิ่งที่ชัดเจนในการศึกษาก่อนฉันจึงคิดว่าเอกสารนั้นเก่าเกินไป ฉันทำแบบจำลอง Monte Carlo โดยใช้แพ็คเกจการบูต R และพบว่า bootstrap CIs สอดคล้องกับ CIs ที่แน่นอนแม้ว่าสำหรับกลุ่มตัวอย่างขนาดเล็ก (N <20) พวกเขามีแนวโน้มที่จะเสรีเล็กน้อย (CIs ที่เล็กกว่า) สำหรับตัวอย่างที่มีขนาดใหญ่พอพวกมันจะเหมือนกัน นี้ทำให้ผมสงสัยว่ามีเหตุผลที่ดีใด ๆ ที่จะไม่เสมอใช้ความร่วมมือ ด้วยความยากลำบากในการประเมินว่าการแจกแจงเป็นเรื่องปกติหรือไม่และข้อผิดพลาดมากมายที่อยู่เบื้องหลังสิ่งนี้ดูเหมือนว่ามีเหตุผลที่จะไม่ตัดสินใจและรายงาน bootstrap CIs โดยไม่คำนึงถึงการกระจาย ฉันเข้าใจแรงจูงใจที่ไม่ใช้การทดสอบที่ไม่ใช่พารามิเตอร์อย่างเป็นระบบเนื่องจากมีพลังงานน้อยกว่า แต่การจำลองของฉันบอกฉันว่านี่ไม่ใช่กรณีของ bootstrap CIs พวกมันเล็กลง คำถามที่คล้ายกันที่ทำให้ฉันเป็นบ้าคือทำไมไม่ใช้ค่ามัธยฐานเป็นมาตรวัดแนวโน้มกลางเสมอไป ผู้คนมักจะแนะนำให้ใช้มันเพื่อจำแนกลักษณะข้อมูลที่ไม่ได้กระจายแบบปกติ แต่เนื่องจากค่ามัธยฐานเป็นเช่นเดียวกับค่าเฉลี่ยสำหรับข้อมูลที่กระจายตามปกติทำไมถึงแตกต่าง? มันจะมีประโยชน์มากถ้าเราสามารถกำจัดขั้นตอนการตัดสินใจว่าการแจกแจงเป็นเรื่องปกติหรือไม่ ฉันอยากรู้มากเกี่ยวกับความคิดของคุณเกี่ยวกับปัญหาเหล การอ้างอิงจะได้รับการชื่นชมอย่างมาก ขอบคุณ! …

5
จะทำการใส่ค่าในจุดข้อมูลจำนวนมากได้อย่างไร?
ฉันมีชุดข้อมูลที่มีขนาดใหญ่มากและมีค่าสุ่มประมาณ 5% หายไป ตัวแปรเหล่านี้มีความสัมพันธ์ซึ่งกันและกัน ตัวอย่างชุดข้อมูล R ต่อไปนี้เป็นเพียงตัวอย่างของเล่นที่มีข้อมูลที่สัมพันธ์กันจำลอง set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep ="") rownames(xmat) <- paste("sample", 1:200, sep = "") #M variables are correlated N <- 2000000*0.05 # 5% random missing values inds …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

2
เราสามารถสร้างความน่าจะเป็นด้วยการทำนายเป็นช่วง ๆ ได้หรือไม่?
ฉันได้อ่านการอภิปรายที่ยอดเยี่ยมมากมายในเว็บไซต์เกี่ยวกับการตีความช่วงเวลาความเชื่อมั่นและช่วงการคาดการณ์ แต่แนวคิดหนึ่งยังคงทำให้งงงวย: พิจารณากรอบ OLS และเราได้รับรูปแบบการติดตั้งY = X β เราได้รับx ∗และขอให้ทำนายการตอบสนองของมัน เราคำนวณx * T βและเป็นโบนัส, เรายังมีช่วงเวลาที่การคาดการณ์ 95% รอบการคาดการณ์ของเราลาได้รับสูตรสำหรับข้อ จำกัด ของการคาดการณ์ในรูปแบบเชิงเส้น ลองเรียกคำทำนายช่วงเวลา PI นี้ดูy^=Xβ^y^=Xβ^\hat y = X\hat\betax∗x∗x^*x∗Tβ^x∗Tβ^x^{*T}\hat\beta ทีนี้ข้อใดต่อไปนี้ (หรือไม่ใช่) การตีความ PI ที่ถูกต้องคืออะไร? สำหรับโดยเฉพาะอย่างยิ่งY ( x * )อยู่ภายใน PI กับความน่าจะเป็น 95%x∗x∗x^*y(x∗)y(x∗)y(x^*) หากเราได้รับจำนวนมากขั้นตอนนี้ในการคำนวณ PIs จะครอบคลุมการตอบสนองที่แท้จริง 95% ของเวลาxxx จากถ้อยคำของ @ gung ในช่วงการทำนายการถดถอยเชิงเส้นดูเหมือนว่าในอดีตจะเป็นความจริง (แม้ว่าฉันจะตีความการตีความผิดได้เป็นอย่างดี) การตีความที่ 1 …

1
Clopper-Pearson สำหรับนักคณิตศาสตร์ที่ไม่ใช่
ฉันสงสัยว่าถ้าใครสามารถอธิบายให้ฉันรู้ได้ว่าเกินขนาดของ Clopper-Pearson CI เท่าที่ฉันรู้ทุก CI รวมถึงความแปรปรวนในนั้น อย่างไรก็ตามสำหรับสัดส่วนแม้ว่าสัดส่วนของฉันคือ 0 หรือ 1 (0% หรือ 100%) สามารถคำนวณ Clopper-Pearson CI ได้ ฉันลองดูสูตรและฉันเข้าใจว่ามันมีบางอย่างที่มีเปอร์เซนต์ของการแจกแจงแบบทวินามและฉันเข้าใจว่าการหา CI เกี่ยวข้องกับการทำซ้ำ แต่ฉันสงสัยว่าใครสามารถอธิบายตรรกะและเหตุผลใน "คำง่าย ๆ " หรือด้วยคณิตศาสตร์ขั้นต่ำ ?

2
ฉันจะรวมค่า p bootstrapped กับชุดข้อมูลที่มีการคูณทวีคูณได้อย่างไร
ฉันกังวลกับปัญหาที่ฉันต้องการบู๊ต p-value สำหรับการประมาณของจากข้อมูล imputed (MI) ที่คูณกัน แต่มันก็ไม่ชัดเจนสำหรับฉันที่จะรวมค่า p-ข้ามชุด MIθθ\theta สำหรับชุดข้อมูล MI วิธีการมาตรฐานในการเข้าถึงความแปรปรวนโดยประมาณทั้งหมดใช้กฎของรูบิน ดูที่นี่สำหรับการตรวจสอบการรวมชุดข้อมูล MI รากที่สองของความแปรปรวนทั้งหมดทำหน้าที่เป็นประมาณการข้อผิดพลาดมาตรฐานของ\อย่างไรก็ตามสำหรับบางตัวประมาณค่าความแปรปรวนทั้งหมดยังไม่ทราบว่าเป็นรูปแบบปิดหรือการกระจายตัวตัวอย่างไม่ปกติ สถิติอาจไม่ได้รับการแจกแจงแบบทีไม่ใช่แบบไม่แสดงอาการθ / s E ( θ )θθ\thetaθ / s e ( θ )θ/se(θ){\theta}/{se(\theta)} ดังนั้นในกรณีข้อมูลที่สมบูรณ์ตัวเลือกหนึ่งทางเลือกคือการบูตสถิติเพื่อค้นหาความแปรปรวนค่า p และช่วงความมั่นใจแม้ว่าการกระจาย samling ไม่ปกติและไม่ทราบรูปแบบปิด ในกรณี MI มีสองตัวเลือก: รวมกลุ่มความแปรปรวนที่เริ่มต้นผ่านชุดข้อมูล MI พูลค่า p-value หรือขอบเขตความมั่นใจในชุดข้อมูล MI ตัวเลือกแรกจะใช้กฎของรูบินอีกครั้ง อย่างไรก็ตามฉันเชื่อว่านี่เป็นปัญหาหากมีการแจกแจงตัวอย่างที่ไม่ปกติ ในสถานการณ์นี้ (หรือโดยทั่วไปในทุกสถานการณ์) ค่า p bootstrapped สามารถนำมาใช้โดยตรง …

1
การคำนวณช่วงความเชื่อมั่นผ่าน bootstrap จากการสังเกต
bootstrap ในรูปแบบมาตรฐานสามารถใช้ในการคำนวณช่วงความเชื่อมั่นของสถิติโดยประมาณหากการสังเกตนั้นเป็น iid I. Visser และคณะ ใน " Confidence Intervals สำหรับพารามิเตอร์ Markov Model ที่ซ่อนอยู่ " ใช้ bootstrap แบบพารามิเตอร์เพื่อคำนวณ CIs สำหรับพารามิเตอร์ HMM อย่างไรก็ตามเมื่อเราใส่ HMM ตามลำดับการสังเกตเราได้สันนิษฐานไว้แล้วว่าการสังเกตนั้นขึ้นอยู่กับ (ในทางตรงกันข้ามกับโมเดลผสม) ฉันมีสองคำถาม: สมมติฐาน iid ทำอะไรกับ bootstrap? เราสามารถเพิกเฉยต่อข้อกำหนดของ id ใน bootstrap แบบพารามิเตอร์ได้หรือไม่? Visser และคณะ วิธีการสั้น ๆ ดังนี้: สมมติเรามีลำดับสังเกตผลมาจากการสุ่มตัวอย่างอืมกับชุดจริง แต่ไม่รู้จักของพารามิเตอร์\Y=o1,o2,...,onY=o1,o2,...,onY=o_1,o_2,...,o_nθ=θ1,θ2,...,θlθ=θ1,θ2,...,θl\theta=\theta_1,\theta_2,...,\theta_l พารามิเตอร์สามารถประมาณได้โดยใช้อัลกอริทึม EM:θ^=θ^1,θ^2,...,θ^lθ^=θ^1,θ^2,...,θ^l\hat{\theta}=\hat{\theta}_1,\hat{\theta}_2,...,\hat{\theta}_l ใช้ HMM โดยประมาณเพื่อสร้างตัวอย่าง bootstrap ขนาด :nnnY∗=o∗1,o∗2,...,o∗nY∗=o1∗,o2∗,...,on∗Y^*=o^*_1,o^*_2,...,o^*_n …

2
การค้นหาความแม่นยำของการจำลองสถานการณ์ของ Monte Carlo
พื้นหลัง ฉันออกแบบการจำลองมอนติคาร์โลที่รวมเอาท์พุทของชุดของแบบจำลองและฉันต้องการให้แน่ใจว่าการจำลองจะช่วยให้ฉันสามารถเรียกร้องที่สมเหตุสมผลเกี่ยวกับความน่าจะเป็นของผลลัพธ์ที่จำลองและความแม่นยำของการประมาณความน่าจะเป็น การจำลองจะพบว่ามีความเป็นไปได้ที่คณะลูกขุนที่ดึงมาจากชุมชนที่ระบุจะลงโทษจำเลยที่หนึ่ง นี่คือขั้นตอนของการจำลอง: ใช้ข้อมูลที่มีอยู่แล้วสร้างแบบจำลองความน่าจะเป็นแบบโลจิสติกส์ ( M ) โดยการลงคะแนน“ juror first ballot vote” บนตัวทำนายกลุ่มประชากร ใช้วิธีการ Monte Carlo เพื่อจำลองM 1,000 เวอร์ชัน(เช่น 1,000 สัมประสิทธิ์สำหรับพารามิเตอร์รุ่น) เลือกรุ่นหนึ่งใน 1,000 รุ่น ( M i ) Empanel 1,000 คณะลูกขุนโดยการสุ่มเลือก 12 คณะลูกขุน 12 คนจาก "ชุมชน" ( C ) ของบุคคลที่มีการแจกแจงลักษณะประชากร deterministically คำนวณความน่าจะเป็นครั้งแรกของการลงคะแนนเสียงการโหวตว่ามีความผิดในแต่ละตุลาการใช้Mฉัน แสดงผลคะแนนที่น่าจะเป็น "ลูกขุน" ในการลงคะแนนเสียงแบบกำหนด (ขึ้นอยู่กับว่ามันมีค่ามากกว่าหรือน้อยกว่าค่าที่เลือกแบบสุ่มระหว่าง 0-1) พิจารณา“ การลงคะแนนเสียงรอบสุดท้าย” …

2
เราสามารถใช้ตัวอย่างบูตสแตรปที่มีขนาดเล็กกว่าตัวอย่างดั้งเดิมได้หรือไม่?
ฉันต้องการใช้ bootstrapping เพื่อประเมินช่วงความมั่นใจสำหรับพารามิเตอร์โดยประมาณจากชุดข้อมูลพาเนลที่มี บริษัท = N 250 บริษัท และ T = 50 เดือน การประมาณค่าพารามิเตอร์มีราคาแพง (ไม่กี่วันของการคำนวณ) เนื่องจากการใช้ตัวกรองคาลมานและการประเมินแบบไม่เชิงเส้นที่ซับซ้อน ดังนั้นการวาด (แทนที่) B (เป็นร้อยหรือมากกว่า) ตัวอย่างของ M = N = 250 บริษัท จากตัวอย่างดั้งเดิมและการประมาณค่าพารามิเตอร์ B ครั้งนั้นเป็นไปไม่ได้ที่คำนวณได้แม้ว่านี่จะเป็นวิธีพื้นฐานสำหรับการบูต ดังนั้นฉันกำลังพิจารณาใช้ M ขนาดเล็กกว่า (เช่น 10) สำหรับตัวอย่าง bootstrap (แทนที่จะเป็นขนาดเต็มของ N = 250) วาดแบบสุ่มด้วยการแทนที่จาก บริษัท ดั้งเดิมจากนั้นปรับขนาดเมทริกซ์ความแปรปรวนร่วมประมาณ bootstrap ของพารามิเตอร์โมเดลด้วย (ในตัวอย่างข้างต้นด้วย 1/25) เพื่อคำนวณเมทริกซ์ความแปรปรวนร่วมสำหรับพารามิเตอร์ตัวแบบที่ประมาณไว้ในตัวอย่างเต็ม1ยังไม่มีข้อความM1NM\frac{1}{\frac{N}{M}} ช่วงความเชื่อมั่นที่ต้องการนั้นสามารถประมาณขึ้นอยู่กับสมมติฐานของภาวะปกติหรือเชิงประจักษ์สำหรับตัวอย่างขนาดเล็กโดยใช้กระบวนการที่คล้ายกัน …

2
เมื่อทำการปรับเส้นโค้งฉันจะคำนวณช่วงความมั่นใจ 95% สำหรับพารามิเตอร์ที่ติดตั้งได้อย่างไร
ฉันกำลังปรับเส้นโค้งให้เหมาะสมกับข้อมูลของฉันเพื่อแยกพารามิเตอร์หนึ่งตัว อย่างไรก็ตามฉันไม่แน่ใจว่าความแน่นอนของพารามิเตอร์นั้นคืออะไรและฉันจะคำนวณ / แสดงช่วงความมั่นใจ % ได้อย่างไร959595 พูดสำหรับชุดข้อมูลที่มีข้อมูลที่อธิบายการสลายตัวแบบทวีคูณฉันพอดีกับเส้นโค้งกับชุดข้อมูลแต่ละชุด จากนั้นข้อมูลที่ผมต้องการที่จะเป็นสารสกัดจากตัวแทนขฉันรู้ค่าของและค่าของฉันไม่สนใจ (นั่นคือตัวแปรที่มาจากประชากรไม่ใช่กระบวนการที่ฉันพยายามทำแบบจำลอง)t abbbtttaaa ฉันใช้การถดถอยเชิงเส้นเพื่อให้พอดีกับพารามิเตอร์เหล่านี้ อย่างไรก็ตามฉันไม่รู้วิธีคำนวณช่วงความมั่นใจ % สำหรับวิธีการใดดังนั้นคำตอบที่กว้างขึ้นก็ยินดีต้อนรับเช่นกัน959595 f=a⋅e−btf=a⋅e−btf= a\cdot e^{-bt} เมื่อฉันมีค่าของฉันสำหรับฉันจะคำนวณช่วงความมั่นใจ % ได้อย่างไร ขอบคุณล่วงหน้า!95bbb959595

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.