คำถามติดแท็ก expected-value

ค่าที่คาดหวังของตัวแปรสุ่มคือค่าเฉลี่ยถ่วงน้ำหนักของค่าที่เป็นไปได้ทั้งหมดที่ตัวแปรสุ่มสามารถทำได้โดยที่น้ำหนักเท่ากับความน่าจะเป็นที่รับค่านั้น

4
เหตุใดความคาดหวังจึงเหมือนกับเลขคณิตหมายความว่าอย่างไร
วันนี้ฉันได้พบกับหัวข้อใหม่ที่เรียกว่าความคาดหวังทางคณิตศาสตร์ หนังสือที่ฉันกำลังพูดว่าคาดหวังคือค่าเฉลี่ยเลขคณิตของตัวแปรสุ่มที่มาจากการแจกแจงความน่าจะเป็นใด ๆ แต่มันกำหนดความคาดหวังว่าเป็นผลรวมของข้อมูลบางอย่างและความน่าจะเป็นของมัน สองคนนี้ (ค่าเฉลี่ยและความคาดหวัง) จะเหมือนกันได้อย่างไร ผลรวมของความน่าจะเป็นคูณข้อมูลเป็นค่าเฉลี่ยของการแจกแจงทั้งหมดอย่างไร

4
ความคาดหวังของซีรี่ส์เทย์เลอร์
คำถามของฉันเกี่ยวข้องกับการพยายามพิสูจน์วิธีการที่ใช้กันอย่างแพร่หลายนั่นคือการนำค่าที่คาดหวังของ Taylor Series สมมติเรามีตัวแปรสุ่มมีค่าเฉลี่ยบวกและความแปรปรวน 2 นอกจากนี้เรายังมีฟังก์ชั่นการพูด,(x)XXXμμ\muσ2σ2\sigma^2log(x)log⁡(x)\log(x) การขยายตัวของรอบ ๆเทย์เลอร์เราจะได้ ที่คือ st.logXlog⁡X\log XlogX=logμ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξ3X,log⁡X=log⁡μ+X−μμ−12(X−μ)2μ2+13(X−μ)3ξX3, \log X = \log\mu + \frac{X - \mu}{\mu} - \frac12 \frac{(X-\mu)^2}{\mu^2} + \frac13 \frac{(X - \mu)^3}{\xi_X^3}, ξXξX\xi_X|ξX−μ|&lt;|X−μ||ξX−μ|&lt;|X−μ||\xi_X - \mu| < |X - \mu| ถ้าเราใช้ความคาดหวังเราจะได้สมการโดยประมาณซึ่งผู้คนมักจะอ้างถึงว่าเป็นสิ่งที่เห็นได้ชัดในตัวเอง(ดูเครื่องหมายในสมการแรกที่นี่)≈≈\approx : ElogX≈logμ−12σ2μ2Elog⁡X≈log⁡μ−12σ2μ2 \mathbb{E}\log X \approx \log \mu - \frac12 \frac{\sigma^2}{\mu^2} คำถาม : ฉันสนใจที่จะพิสูจน์ว่ามูลค่าที่คาดหวังของคำศัพท์ที่เหลือนั้นน้อยมากนั่นคือ (หรือกล่าวอีกนัยหนึ่ง )E[(X−μ)3ξ3X]=o(σ2)E[(X−μ)3ξX3]=o(σ2) …

5
ค้นหาค่าที่คาดหวังโดยใช้ CDF
ฉันจะเริ่มด้วยการบอกว่านี่เป็นปัญหาการบ้านตรงๆจากหนังสือ ฉันใช้เวลาสองสามชั่วโมงเพื่อค้นหาวิธีการค้นหาค่าที่คาดหวังและตัดสินใจว่าฉันไม่เข้าใจอะไรเลย Letมี CDFx ค้นหาสำหรับค่าเหล่านั้นของซึ่งมีอยู่XXXF(x)=1−x−α,x≥1F(x)=1−x−α,x≥1F(x) = 1 - x^{-\alpha}, x\ge1E(X)E(X)E(X)αα\alphaE(X)E(X)E(X) ฉันไม่รู้ว่าจะเริ่มต้นอย่างไร ฉันจะกำหนดค่าของมีอยู่ได้อย่างไร ฉันยังไม่รู้ว่าจะทำอย่างไรกับ CDF (ฉันสมมติว่านี่หมายถึง Cumulative Distribution Function) มีสูตรสำหรับค้นหาค่าที่คาดไว้เมื่อคุณมีฟังก์ชันความถี่หรือฟังก์ชันความหนาแน่น Wikipedia กล่าวว่า CDF ของสามารถนิยามได้ในรูปของฟังก์ชันความหนาแน่นของความน่าจะเป็นดังนี้:αα\alphaXXXfff F(x)=∫x−∞f(t)dtF(x)=∫−∞xf(t)dtF(x) = \int_{-\infty}^x f(t)\,dt เท่าที่ฉันได้รับ ฉันจะไปจากที่นี่ที่ไหน แก้ไข: ฉันหมายถึงการใส่xx≥1x≥1x\ge1

3
เหตุใดจึงมีความแตกต่างระหว่างการคำนวณช่วงความเชื่อมั่นแบบโลจิสติก 95% ด้วยตนเองและการใช้ฟังก์ชัน confint () ใน R
เรียนคุณทุกคน - ฉันสังเกตเห็นบางสิ่งแปลก ๆ ที่ไม่สามารถอธิบายได้ไหม โดยสรุป: แนวทางแบบแมนนวลเพื่อคำนวณช่วงความมั่นใจในโมเดลการถดถอยโลจิสติกและฟังก์ชัน R confint()ให้ผลลัพธ์ที่แตกต่างกัน ฉันเคยผ่านการถดถอยโลจิสติกประยุกต์ของ Hosmer &amp; Lemeshow แล้ว (ฉบับที่ 2) ในบทที่ 3 มีตัวอย่างของการคำนวณอัตราส่วนอัตราต่อรองและช่วงความมั่นใจ 95% ด้วย R ฉันสามารถสร้างโมเดลได้อย่างง่ายดาย: Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

9
ได้รับสมการของเบลล์แมนในการเสริมการเรียนรู้
ฉันเห็นสมการต่อไปนี้ใน " ในการเสริมการเรียนรู้การแนะนำ " แต่ไม่ทำตามขั้นตอนที่ฉันเน้นด้วยสีน้ำเงินด้านล่าง ขั้นตอนนี้เกิดขึ้นได้อย่างไร

6
ใครบางคนสามารถเสนอตัวอย่างของการแจกแจงแบบ unimodal ที่มีความเบ้ของศูนย์ แต่ที่ไม่สมมาตร?
ในเดือนพฤษภาคม 2553 ผู้ใช้วิกิพีเดีย Mcorazao เพิ่มประโยคหนึ่งในบทความความเบ้ว่า "ค่าศูนย์ระบุว่าค่านั้นมีการกระจายอย่างเท่าเทียมกันทั้งสองด้านของค่าเฉลี่ยซึ่งโดยทั่วไปแล้ว อย่างไรก็ตามหน้าวิกิไม่มีตัวอย่างจริงของการแจกแจงที่ทำลายกฎนี้ Googling "ตัวอย่างการแจกแจงแบบอสมมาตรที่มีความเบ้เป็นศูนย์" ยังไม่มีตัวอย่างจริงอย่างน้อยในผลลัพธ์ 20 รายการแรก การใช้คำจำกัดความที่คำนวณความเอียงโดยE[(X−μσ)3]E⁡[(X−μσ)3] \operatorname{E}\Big[\big(\tfrac{X-\mu}{\sigma}\big)^{\!3}\, \Big]และสูตร R sum((x-mean(x))^3)/(length(x) * sd(x)^3) ฉันสามารถสร้างการกระจายตัวเล็ก ๆ ตามอำเภอใจเพื่อทำให้ความเบ้ต่ำ ตัวอย่างเช่นการกระจาย x = c(1, 3.122, 5, 4, 1.1) อัตราผลตอบแทนเอียงของ5} แต่นี่คือตัวอย่างเล็ก ๆ และยิ่งกว่านั้นความเบี่ยงเบนจากสมมาตรก็ไม่ใหญ่ ดังนั้นเป็นไปได้หรือไม่ที่จะสร้างการกระจายตัวที่ใหญ่ขึ้นด้วยจุดสูงสุดที่มีความไม่สมดุลสูง แต่ก็ยังมีความเบ้ของศูนย์เกือบอยู่หรือ−5.64947⋅10−5−5.64947⋅10−5-5.64947\cdot10^{-5}

6
เหตุใดค่าที่คาดหมายจึงตั้งชื่อเช่นนั้น
ฉันเข้าใจว่าเราได้ 3.5 เป็นค่าที่คาดไว้สำหรับการรีดแม่พิมพ์ 6 ด้านที่ยุติธรรม แต่โดยสัญชาตญาณฉันสามารถคาดหวังให้แต่ละหน้ามีโอกาสเท่ากันที่ 1/6 ดังนั้นค่าที่คาดหวังของการรีดตายไม่ควรเป็นหนึ่งในจำนวนระหว่าง 1-6 ด้วยความน่าจะเป็นที่เท่ากันหรือ กล่าวอีกนัยหนึ่งเมื่อถามคำถามว่าอะไรคือค่าคาดหวังของการขว้างปา 6-fair ที่ยุติธรรม? ใครควรตอบว่า 'โอ้มันอาจเป็นอะไรก็ได้ระหว่าง 1-6 โดยมีโอกาสเท่ากัน' แทนที่จะเป็น 3.5 ในสังหรณ์โลกแห่งความเป็นจริงมีใครสามารถอธิบายได้ว่าคุณค่าที่ฉันควรคาดหวังในการขว้างปา 3.5 นั้นมีค่าอย่างไร? อีกครั้งฉันไม่ต้องการสูตรหรือแหล่งที่มาสำหรับความคาดหวัง

3
ทำไมไม่รายงานค่าเฉลี่ยของการกระจาย bootstrap?
เมื่อหนึ่ง bootstraps พารามิเตอร์เพื่อรับข้อผิดพลาดมาตรฐานที่เราได้รับการกระจายของพารามิเตอร์ ทำไมเราไม่ใช้ค่าเฉลี่ยของการแจกแจงนั้นเป็นผลลัพธ์หรือค่าประมาณสำหรับพารามิเตอร์ที่เราพยายามหา การกระจายไม่ควรประมาณค่าจริงหรือไม่ ดังนั้นเราจะได้ค่าประมาณที่ดี "ที่แท้จริง"? แต่เรารายงานพารามิเตอร์ดั้งเดิมที่เราได้รับจากตัวอย่างของเรา ทำไมถึงเป็นอย่างนั้น? ขอบคุณ

3
ช่วยพัฒนาสมอง: ความยาวที่คาดหวังของลำดับ iid ที่เพิ่มขึ้นแบบซ้ำซากคืออะไรเมื่อดึงจากการแจกแจงแบบ [0,1]
นี่เป็นคำถามที่สัมภาษณ์สำหรับตำแหน่งนักวิเคราะห์เชิงปริมาณรายงานที่นี่ สมมติว่าเราวาดจากการแจกแจงแบบสม่ำเสมอและการจับสลากคือ iid ความยาวที่คาดหวังของการแจกแจงแบบซ้ำซ้อนเพิ่มขึ้นคือเท่าใด? คือเราหยุดการวาดถ้าการดึงปัจจุบันมีขนาดเล็กกว่าหรือเท่ากับการวาดก่อนหน้า[0,1][0,1][0,1] ฉันได้รับสองสามครั้งแรก: \ Pr (\ text {length} = 2) = \ int_0 ^ 1 \ int_ {x_1} ^ 1 \ int_0 ^ {x_2} \ mathrm {d} x_3 \, \ mathrm {d} x_2 \, \ mathrm {d} x_1 = 1/3 \ Pr (\ text {length} = 3) …

1
องศาอิสระเป็นหมายเลขที่ไม่ใช่จำนวนเต็มหรือไม่
เมื่อฉันใช้ GAM มันให้ DF ที่เหลือกับฉันคือ (บรรทัดสุดท้ายในรหัส) นั่นหมายความว่าอย่างไร? นอกเหนือไปจากตัวอย่างของ GAM โดยทั่วไปแล้วจำนวนองศาความเป็นอิสระจะเป็นจำนวนที่ไม่ใช่จำนวนเต็มหรือไม่26.626.626.6 &gt; library(gam) &gt; summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

2
ฉันได้ยินมาว่าอัตราส่วนหรือผกผันของตัวแปรสุ่มมักเป็นปัญหาโดยไม่คาดหวัง ทำไมถึงเป็นอย่างนั้น?
ชื่อเป็นคำถาม ฉันได้รับการบอกว่าอัตราส่วนและผู้แปรผันของตัวแปรสุ่มมักเป็นปัญหา สิ่งที่มีความหมายคือความคาดหวังนั้นมักจะไม่มีอยู่จริง มีคำอธิบายทั่วไปอย่างง่าย ๆ หรือไม่?

3
การสลาย MSE ไปเป็น Variance และ Bias Squared
ในการแสดงให้เห็นว่า MSE สามารถถูกจำแนกออกเป็นความแปรปรวนบวกกับสแควร์ออฟไบแอสการพิสูจน์ในวิกิพีเดียมีขั้นตอนหนึ่งที่เน้นในภาพ มันทำงานอย่างไร ความคาดหวังผลักเข้าไปในผลิตภัณฑ์จากขั้นตอนที่ 3 ถึงขั้นตอนที่ 4 อย่างไร หากทั้งสองคำมีความเป็นอิสระการคาดการณ์จะไม่ถูกนำไปใช้กับทั้งสองคำ และถ้าไม่มีขั้นตอนนี้จะใช้ได้หรือไม่

3
ทำไมความน่าจะเป็นสูงสุดและไม่น่าจะเป็นไปได้?
เหตุใดจึงเป็นเรื่องธรรมดาที่จะได้รับการประมาณการความน่าจะเป็นสูงสุดของพารามิเตอร์ แต่คุณแทบไม่เคยได้ยินเกี่ยวกับการประมาณค่าพารามิเตอร์ความน่าจะเป็นที่คาดหวัง (กล่าวคืออิงจากค่าที่คาดหวังมากกว่าโหมดของฟังก์ชันโอกาส) นี่เป็นเหตุผลหลักในเชิงประวัติศาสตร์หรือมีเหตุผลทางเทคนิคหรือเชิงทฤษฎีมากกว่านี้หรือไม่? จะมีข้อได้เปรียบที่สำคัญและ / หรือข้อเสียในการใช้การประมาณความน่าจะเป็นที่คาดหวังมากกว่าการประมาณการความเป็นไปได้สูงสุดหรือไม่? มีบางพื้นที่ที่คาดการณ์ความน่าจะเป็นใช้เป็นประจำหรือไม่?

4
ตัวอย่างของการแจกแจงแบบไม่ต่อเนื่องที่ไม่เป็นลบโดยที่ค่าเฉลี่ย (หรือช่วงเวลาอื่น) ไม่อยู่?
ฉันกำลังทำงานใน scipy และการสนทนาเกิดขึ้นกับสมาชิกของกลุ่ม scipy หลักว่าตัวแปรสุ่มแยกแบบไม่ต่อเนื่องสามารถมีช่วงเวลาที่ไม่ได้กำหนด ฉันคิดว่าเขาถูกต้อง แต่ไม่มีข้อพิสูจน์ที่มีประโยชน์ ทุกคนสามารถแสดง / พิสูจน์ข้อเรียกร้องนี้ได้หรือไม่? (หรือถ้าการเรียกร้องนี้ไม่ได้พิสูจน์หักล้างจริง) ฉันไม่ได้มีตัวอย่างที่มีประโยชน์ถ้าตัวแปรสุ่มแบบแยกนั้นสนับสนุนแต่ดูเหมือนว่าการแจกจ่าย Cauchy บางรุ่นที่ไม่ควรนำมาใช้เป็นตัวอย่างเพื่อให้ได้ช่วงเวลาที่ไม่ได้กำหนด เงื่อนไขของการไม่ปฏิเสธ (อาจรวมถึง ) เป็นสิ่งที่ดูเหมือนจะทำให้ปัญหาท้าทาย (อย่างน้อยสำหรับฉัน) 0ZZ\mathbb{Z}000

5
เหตุใดเราจึงใช้สูตรเบี่ยงเบนมาตรฐานแบบเอนเอียงและทำให้เข้าใจผิดสำหรับ
มันค่อนข้างน่าตกใจสำหรับฉันในครั้งแรกที่ฉันทำการจำลองแบบมอนติคาร์โลและพบว่าค่าเฉลี่ยของส่วนเบี่ยงเบนมาตรฐาน100100100ค่าจาก100100100ตัวอย่างทั้งหมดมีขนาดตัวอย่างเพียงn=2n=2n=2ซึ่งพิสูจน์ได้ว่าน้อยกว่ามาก กว่าคือค่าเฉลี่ย2π−−√2π \sqrt{\frac{2}{\pi }} ,σσ\sigmaใช้สำหรับสร้างประชากร อย่างไรก็ตามนี่เป็นที่รู้จักกันดีหากไม่ค่อยมีใครจำได้และฉันก็ไม่รู้เหมือนกันหรือฉันจะไม่ทำแบบจำลอง นี่คือการจำลอง นี่คือตัวอย่างสำหรับการทำนายช่วงความเชื่อมั่น 95% ของN(0,1)N(0,1)N(0,1)โดยใช้ 100, n=2n=2n=2 , ค่าประมาณของSDSD\text{SD} , และE(sn=2)=π2−−√SDE(sn=2)=π2SD\text{E}(s_{n=2})=\sqrt\frac{\pi}{2}\text{SD} SD RAND() RAND() Calc Calc N(0,1) N(0,1) SD E(s) -1.1171 -0.0627 0.7455 0.9344 1.7278 -0.8016 1.7886 2.2417 1.3705 -1.3710 1.9385 2.4295 1.5648 -0.7156 1.6125 2.0209 1.2379 0.4896 0.5291 0.6632 -1.8354 1.0531 2.0425 2.5599 1.0320 …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.