คำถามติดแท็ก mixture

การแจกแจงแบบผสมคือการเขียนแบบนูนของการแจกแจงอื่น ๆ ใช้แท็ก "การแจกแจงแบบผสม" สำหรับ "การเรียงต่อกัน" ของการแจกแจง (โดยที่พารามิเตอร์ของการแจกแจงเป็นตัวแปรสุ่ม)

1
ความแปรปรวนของส่วนผสมน้ำหนักของสอง gaussians คืออะไร?
บอกว่าผมมีสองการแจกแจงปรกติ A และ B ด้วยวิธีการและและแปรปรวนและ\ฉันต้องการที่จะใช้เป็นส่วนผสมถ่วงน้ำหนักของทั้งสองการกระจายการใช้น้ำหนักและที่และ1-P ฉันรู้ว่าค่าเฉลี่ยของส่วนผสมนี้จะเป็นmu_B)μAμA\mu_AμBμB\mu_BσAσA\sigma_AσBσB\sigma_Bpppqqq0≤p≤10≤p≤10\le p \le 1q=1−pq=1−pq = 1-pμAB=(p×μA)+(q×μB)μAB=(p×μA)+(q×μB)\mu_{AB} = (p\times\mu_A) + (q\times\mu_B) ความแปรปรวนจะเป็นอย่างไร ตัวอย่างที่ชัดเจนคือถ้าฉันรู้พารามิเตอร์สำหรับการกระจายความสูงของเพศชายและเพศหญิง หากฉันมีห้องของคนที่เป็นเพศชาย 60% ฉันสามารถสร้างความสูงเฉลี่ยที่คาดไว้สำหรับทั้งห้อง แต่ความแปรปรวนล่ะ?

3
เหตุใดจึงมีความแตกต่างระหว่างการคำนวณช่วงความเชื่อมั่นแบบโลจิสติก 95% ด้วยตนเองและการใช้ฟังก์ชัน confint () ใน R
เรียนคุณทุกคน - ฉันสังเกตเห็นบางสิ่งแปลก ๆ ที่ไม่สามารถอธิบายได้ไหม โดยสรุป: แนวทางแบบแมนนวลเพื่อคำนวณช่วงความมั่นใจในโมเดลการถดถอยโลจิสติกและฟังก์ชัน R confint()ให้ผลลัพธ์ที่แตกต่างกัน ฉันเคยผ่านการถดถอยโลจิสติกประยุกต์ของ Hosmer & Lemeshow แล้ว (ฉบับที่ 2) ในบทที่ 3 มีตัวอย่างของการคำนวณอัตราส่วนอัตราต่อรองและช่วงความมั่นใจ 95% ด้วย R ฉันสามารถสร้างโมเดลได้อย่างง่ายดาย: Call: glm(formula = dataset$CHD ~ as.factor(dataset$dich.age), family = "binomial") Deviance Residuals: Min 1Q Median 3Q Max -1.734 -0.847 -0.847 0.709 1.549 Coefficients: Estimate Std. Error z value …
34 r  regression  logistic  confidence-interval  profile-likelihood  correlation  mcmc  error  mixture  measurement  data-augmentation  r  logistic  goodness-of-fit  r  time-series  exponential  descriptive-statistics  average  expected-value  data-visualization  anova  teaching  hypothesis-testing  multivariate-analysis  r  r  mixed-model  clustering  categorical-data  unsupervised-learning  r  logistic  anova  binomial  estimation  variance  expected-value  r  r  anova  mixed-model  multiple-comparisons  repeated-measures  project-management  r  poisson-distribution  control-chart  project-management  regression  residuals  r  distributions  data-visualization  r  unbiased-estimator  kurtosis  expected-value  regression  spss  meta-analysis  r  censoring  regression  classification  data-mining  mixture 

10
ทำไมการรวมตัวกันของตัวแปรสุ่มสองตัวจึงทำให้เกิดการโน้มน้าว?
เป็นเวลานานฉันไม่เข้าใจว่าทำไม "ผลรวม" ของตัวแปรสุ่มสองตัวคือการบิดของพวกเขาในขณะที่ผลรวมความหนาแน่นของฟังก์ชั่นการผสมของและคือf(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); ผลรวมเลขคณิตและไม่ใช่การแปลง วลีที่ถูกต้อง "ผลรวมของตัวแปรสุ่มสองตัว" ปรากฏใน google 146,000 ครั้งและเป็นรูปไข่ดังนี้ ถ้าใครคิดว่า RV ให้ผลเป็นค่าเดียวก็สามารถเพิ่มค่าเดียวให้กับค่า RV เดี่ยวอีกค่าหนึ่งซึ่งไม่มีส่วนเกี่ยวข้องกับการโน้มน้าวใจอย่างน้อยก็ไม่ใช่โดยตรงสิ่งที่เป็นผลรวมของตัวเลขสองจำนวน ผลลัพธ์ของสถิติใน RV นั้นเป็นชุดของค่าและดังนั้นวลีที่แน่นอนยิ่งกว่าจะเป็นอะไรบางอย่างเช่น "ชุดของผลรวมของคู่ของค่าของแต่ละบุคคลที่เชื่อมโยงกันจากสอง RV's คือความไม่ต่อเนื่องของพวกเขา" ... และสามารถประมาณโดย ความหนาแน่นของฟังก์ชั่นความหนาแน่นสอดคล้องกับ RV เหล่านั้น ภาษาที่เรียบง่ายยิ่งขึ้น: 2 RV's ofnnnตัวอย่างอยู่ในผลเวกเตอร์สองมิติ n ที่เพิ่มเป็นผลรวมเวกเตอร์ โปรดแสดงรายละเอียดว่าผลรวมของตัวแปรสุ่มสองตัวนั้นเป็นรูปแบบ convolution และผลรวมอย่างไร

3
นักเรียนเป็นส่วนผสมของ Gaussian
ใช้เสื้อนักเรียนกับการกระจายองศาอิสระพารามิเตอร์ที่ตั้งและขนาดพารามิเตอร์มีความหนาแน่นลิตรsk>0k>0k > 0lllsss Γ ( k + 12)Γ ( k2k πs2----√){ 1 + k- 1( x - ls) }- ( k + 1 ) / 2,Γ(k+12)Γ(k2kπs2){1+k−1(x−ls)}−(k+1)/2,\frac{\Gamma \left(\frac{k+1}{2}\right)}{\Gamma\left(\frac{k}{2}\sqrt{k \pi s^2}\right)} \left\{ 1 + k^{-1}\left( \frac{x-l}{s}\right)\right\}^{-(k+1)/2}, ทำอย่างไรจึงจะแสดงให้เห็นว่านักเรียน -distribution สามารถเขียนเป็นส่วนผสมของการแจกแจงแบบเกาส์โดยให้ ,และรวมความหนาแน่นของข้อต่อเพื่อให้ได้ความหนาแน่นของส่วนขอบ ? อะไรคือพารามิเตอร์ของผลลัพธ์ -distribution ซึ่งเป็นฟังก์ชั่นของ ?X ∼ N ( μ , σ 2 …

5
แรงจูงใจของอัลกอริธึมการเพิ่มความคาดหวัง
คำถามนี้ถูกย้ายจาก Mathematics Stack Exchange เพราะสามารถตอบได้ในการตรวจสอบข้าม อพยพ 6 ปีที่แล้ว ในแนวทางของอัลกอริทึม EM ที่เราใช้ความไม่เท่าเทียมกันของเซ่นจะมาถึงที่logp(x|θ)≥∫logp(z,x|θ)p(z|x,θ(k))dz−∫logp(z|x,θ)p(z|x,θ(k))dzlog⁡p(x|θ)≥∫log⁡p(z,x|θ)p(z|x,θ(k))dz−∫log⁡p(z|x,θ)p(z|x,θ(k))dz\log p(x|\theta) \geq \int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz - \int \log p(z|x,\theta) p(z|x,\theta^{(k)})dz และกำหนดθ(k+1)θ(k+1)\theta^{(k+1)}โดยθ(k+1)=argmaxθ∫logp(z,x|θ)p(z|x,θ(k))dzθ(k+1)=arg⁡maxθ∫log⁡p(z,x|θ)p(z|x,θ(k))dz\theta^{(k+1)}=\arg \max_{\theta}\int \log p(z,x|\theta) p(z|x,\theta^{(k)}) dz ทุกอย่างที่ฉันอ่าน EM ก็แค่ลดทอนลง แต่ฉันก็รู้สึกไม่สบายใจอยู่เสมอโดยไม่มีคำอธิบายว่าทำไมอัลกอริธึม EM จึงเกิดขึ้นเองตามธรรมชาติ ฉันเข้าใจว่าโอกาสในการloglog\logโดยทั่วไปแล้วจะจัดการกับการเพิ่มนอกเหนือจากการคูณ แต่การปรากฏตัวของloglog\logในคำจำกัดความของθ(k+1)θ(k+1)\theta^{(k+1)}ทำให้ฉันรู้สึกไม่คุ้นเคย เหตุใดจึงควรพิจารณาloglog\logและไม่ใช่ฟังก์ชั่นอื่น ๆ ? ด้วยเหตุผลต่าง ๆ ฉันสงสัยว่า "ความหมาย" หรือ "แรงจูงใจ" เบื้องหลังการเพิ่มความคาดหวังมีคำอธิบายบางอย่างในแง่ของทฤษฎีข้อมูลและสถิติที่เพียงพอ หากมีคำอธิบายดังกล่าวที่จะพอใจมากกว่าเพียงแค่อัลกอริทึมนามธรรม

4
การสร้างตัวแปรสุ่มจากส่วนผสมของการแจกแจงแบบปกติ
ฉันจะได้ลิ้มลองจากการกระจายส่วนผสมและในส่วนผสมโดยเฉพาะอย่างยิ่งของการกระจายปกติในR? ตัวอย่างเช่นถ้าฉันต้องการตัวอย่างจาก: 0.3× N( 0 , 1 )+0.5× N( 10 , 1 )+0.2× N( 3 , .1 )0.3×N(0,1)+0.5×N(10,1)+0.2×N(3,.1) 0.3\!\times\mathcal{N}(0,1)\; + \;0.5\!\times\mathcal{N}(10,1)\; + \;0.2\!\times\mathcal{N}(3,.1) ฉันจะทำอย่างนั้นได้อย่างไร

2
“ จุดข้อมูลทั้งหมดเหล่านี้มาจากการกระจายตัวแบบเดียวกัน” จะทดสอบอย่างไร?
ฉันรู้สึกว่าฉันเคยเห็นหัวข้อนี้ที่กล่าวถึงที่นี่มาก่อน แต่ฉันไม่สามารถหาสิ่งที่เฉพาะเจาะจง จากนั้นอีกครั้งฉันไม่แน่ใจจริงๆว่าจะค้นหาอะไร ฉันมีชุดข้อมูลที่สั่งหนึ่งมิติ ฉันตั้งสมมติฐานว่าทุกจุดในเซตนั้นมาจากการกระจายตัวแบบเดียวกัน ฉันจะทดสอบสมมติฐานนี้ได้อย่างไร มันสมเหตุสมผลหรือไม่ที่จะทดสอบกับทางเลือกทั่วไปของ "การสังเกตในชุดข้อมูลนี้มาจากการแจกแจงสองแบบที่แตกต่างกัน"? เป็นการดีที่ฉันต้องการระบุว่าคะแนนใดมาจากการกระจาย "อื่น ๆ " เนื่องจากข้อมูลของฉันถูกสั่งซื้อฉันจะสามารถระบุจุดตัดหลังจากทำการทดสอบว่า "ถูกต้อง" เพื่อตัดข้อมูลหรือไม่ แก้ไข: ตามคำตอบของ Glen_b ฉันจะสนใจเรื่องการแจกแจงเชิงบวกและแบบอิสระที่เคร่งครัด ฉันยังมีความสนใจในกรณีพิเศษของสมมติกระจายแล้วการทดสอบที่แตกต่างกันสำหรับพารามิเตอร์

1
สัญชาตญาณของตัวอย่างที่แลกเปลี่ยนได้ภายใต้สมมติฐานว่างคืออะไร
การทดสอบการเปลี่ยนรูป (เรียกอีกอย่างว่าการทดสอบแบบสุ่มการทดสอบแบบสุ่มอีกครั้งหรือการทดสอบที่แน่นอน) มีประโยชน์มากและมีประโยชน์เมื่อสมมติฐานของการแจกแจงปกติที่ต้องการโดยตัวอย่างเช่นt-testไม่พบและเมื่อการเปลี่ยนแปลงของค่าโดยการจัดอันดับ การทดสอบแบบไม่มีพารามิเตอร์Mann-Whitney-U-testจะนำไปสู่การสูญเสียข้อมูลมากขึ้น อย่างไรก็ตามไม่ควรมองข้ามสมมุติฐานข้อเดียวและข้อเดียวเพียงข้อเดียวเมื่อใช้การทดสอบชนิดนี้คือข้อสมมติฐานของความสามารถแลกเปลี่ยนได้ของตัวอย่างภายใต้สมมติฐานว่าง เป็นที่น่าสังเกตว่าวิธีการแบบนี้สามารถใช้ได้เมื่อมีตัวอย่างมากกว่าสองตัวอย่างเช่นสิ่งที่นำไปใช้ในcoinแพ็คเกจ R คุณช่วยกรุณาใช้ภาษาที่เป็นรูปเป็นร่างหรือปรีชาเชิงแนวคิดในภาษาอังกฤษธรรมดาเพื่อแสดงสมมติฐานนี้ได้หรือไม่? นี่จะมีประโยชน์มากในการอธิบายปัญหาที่ถูกมองข้ามในหมู่ผู้ที่ไม่ใช่นักสถิติเช่นฉัน หมายเหตุ: จะเป็นประโยชน์อย่างมากหากพูดถึงกรณีที่การใช้การทดสอบการเปลี่ยนแปลงไม่ถือหรือไม่ถูกต้องภายใต้สมมติฐานเดียวกัน ปรับปรุง: สมมติว่าฉันมี 50 วิชาที่รวบรวมจากคลินิกท้องถิ่นในเขตของฉันโดยการสุ่ม พวกเขาถูกสุ่มให้รับยาหรือยาหลอกในอัตราส่วน 1: 1 พวกเขาทั้งหมดถูกวัดสำหรับ Paramerter 1 Par1ที่ V1 (พื้นฐาน), V2 (3 เดือนต่อมา) และ V3 (1 ปีต่อมา) วิชาทั้งหมด 50 กลุ่มสามารถแบ่งเป็น 2 กลุ่มตามคุณสมบัติ A; ค่าบวก = 20 และค่าลบ = 30 นอกจากนี้ยังสามารถจัดกลุ่มย่อยได้อีก 2 กลุ่มตามคุณลักษณะ B; B positive = …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
มีวิธีมาตรฐานในการจัดการกับปัญหาการสลับฉลากในการประมาณค่า MCMC ของตัวแบบผสมหรือไม่?
การสลับเลเบล (เช่นการกระจายด้านหลังเป็นค่าคงที่สำหรับการสลับเลเบลคอมโพเนนต์) เป็นปัญหาที่มีปัญหาเมื่อใช้ MCMC เพื่อประมาณตัวแบบผสม มีวิธีการมาตรฐาน (ตามที่ยอมรับกันอย่างแพร่หลาย) ในการจัดการกับปัญหานี้หรือไม่? หากไม่มีวิธีการมาตรฐานวิธีการคืออะไรข้อดีข้อเสียของวิธีการชั้นนำในการแก้ปัญหาการเปลี่ยนฉลาก?
15 bayesian  mcmc  mixture 

6
เวลาที่ใช้ในกิจกรรมเป็นตัวแปรอิสระ
ฉันต้องการรวมเวลาที่ใช้ในการทำบางสิ่ง (เช่นการให้นมลูกเป็นสัปดาห์) เป็นตัวแปรอิสระในโมเดลเชิงเส้น อย่างไรก็ตามการสังเกตบางอย่างไม่ได้มีส่วนร่วมในพฤติกรรมเลย การเข้ารหัสเป็น 0 ไม่ถูกต้องเพราะ 0 นั้นมีคุณภาพแตกต่างจากค่าใด ๆ > 0 (นั่นคือผู้หญิงที่ไม่ได้ให้นมลูกอาจแตกต่างจากผู้หญิงที่ทำเช่นนั้นแม้แต่คนที่ไม่ได้ทำมานานมาก) สิ่งที่ดีที่สุดที่ฉันสามารถทำได้คือชุดของหุ่นที่แบ่งเวลาที่ใช้ออกไป แต่นี่เป็นข้อมูลที่มีค่า บางสิ่งบางอย่างที่เหมือนกับปัวซองที่มีค่าเป็นศูนย์สูงเกินไปก็ดูเหมือนว่าเป็นไปได้ แต่ฉันไม่สามารถเข้าใจได้อย่างชัดเจนว่าจะมีลักษณะอย่างไรในบริบทนี้ ไม่มีใครมีข้อเสนอแนะใด ๆ ?

1
Caret glmnet กับ cv.glmnet
ดูเหมือนจะมีความสับสนมากในการเปรียบเทียบการใช้glmnetภายในcaretเพื่อค้นหาแลมบ์ดาที่ดีที่สุดและใช้cv.glmnetในการทำงานเดียวกัน มีการตั้งคำถามมากมายเช่น: โมเดลการจำแนกประเภท train.glmnet vs. cv.glmnet วิธีที่เหมาะสมในการใช้ glmnet กับคาเร็ตคืออะไร? การตรวจสอบข้าม `glmnet 'โดยใช้` คาเร็ต' แต่ไม่ได้รับคำตอบซึ่งอาจเป็นเพราะความสามารถในการทำซ้ำของคำถาม ตามคำถามแรกฉันให้ตัวอย่างที่คล้ายกัน แต่มีคำถามเดียวกัน: ทำไม lambdas โดยประมาณแตกต่างกันอย่างไร library(caret) library(glmnet) set.seed(849) training <- twoClassSim(50, linearVars = 2) set.seed(849) testing <- twoClassSim(500, linearVars = 2) trainX <- training[, -ncol(training)] testX <- testing[, -ncol(testing)] trainY <- training$Class # Using glmnet to …

3
ความสัมพันธ์ระหว่างผลรวมของ Gaussian RVs และ Gaussian Mixture
ฉันรู้ว่าจำนวนของเกาส์คือเกาส์ ดังนั้นส่วนผสมของ Gaussians แตกต่างกันอย่างไร ฉันหมายถึงส่วนผสมของ Gaussians เป็นเพียงผลรวมของ Gaussians (ซึ่งแต่ละ Gaussian ถูกคูณด้วยสัมประสิทธิ์การผสมตามลำดับ) ใช่ไหม?

2
เหตุใดปัญหารกรุงรังจึงไม่สามารถทำได้สำหรับตัวอย่างขนาดใหญ่
สมมติว่าเรามีชุดของจุด\} แต่ละจุดถูกสร้างขึ้นโดยใช้การกระจาย เพื่อให้ได้มาซึ่งหลังสำหรับเราเขียน ตามที่กระดาษ Minka ฯ เมื่อวันที่คาดว่าจะมีการขยายพันธุ์ที่เราต้องการคำนวณที่จะได้รับหลังและดังนั้นปัญหาจะกลายเป็นยากสำหรับตัวอย่างที่มีขนาดใหญ่ขนาดNอย่างไรก็ตามฉันไม่สามารถเข้าใจได้ว่าทำไมเราถึงต้องคำนวณจำนวนนี้ในกรณีนี้เพราะสำหรับเดี่ยวy ฉัน p ( y i | x ) = 1y={y1,y2,…,yN}y={y1,y2,…,yN}\mathbf{y} = \{y_1, y_2, \ldots, y_N \}yiyiy_ixP(x|Y)αP(Y|x)P(x)=P(x) N Πฉัน=1P(Yฉัน|x) 2Np(x|y)Nyip(yi|x)=12N(x,1)+12N(0,10).p(yi|x)=12N(x,1)+12N(0,10). p(y_i| x) = \frac12 \mathcal{N}(x, 1) + \frac12 \mathcal{N}(0, 10). xxxp(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x).p(x|y)∝p(y|x)p(x)=p(x)∏i=1Np(yi|x). p(x| \mathbf{y}) \propto p(\mathbf{y}| x) p(x) = p(x) \prod_{i = 1}^N p(y_i | …

1
โอกาสที่จะได้รับผลกระทบเล็กน้อยจากผลผลิตกิ๊บส์
ฉันทำซ้ำตั้งแต่เริ่มต้นผลลัพธ์ในหัวข้อ 4.2.1 จาก โอกาสที่จะได้รับผลกระทบเล็กน้อยจากผลผลิตกิ๊บส์ Siddhartha Chib วารสารสมาคมสถิติอเมริกัน 90, No. 432. (Dec. , 1995), pp. 1313-1321 มันเป็นส่วนผสมของโมเดล normals พร้อมด้วยหมายเลขรู้จัก k≥1k≥1k\geq 1f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σ2j).(∗)f(x∣w,μ,σ2)=∏i=1n∑j=1kN(xi∣μj,σj2).(∗) f(x\mid w,\mu,\sigma^2) =\prod_{i=1}^n\sum_{j=1}^k \mathrm{N}(x_i\mid\mu_j,\sigma_j^2) \, . \qquad (*) ตัวอย่าง Gibbs สำหรับรุ่นนี้นำมาใช้โดยใช้เทคนิคการเพิ่มข้อมูลของแทนเนอร์และหว่อง ชุดของตัวแปรการจัดสรรสมมติว่ามีค่าและเราระบุว่าและf (x_i \ mid z \ หมู่, \ Sigma ^ 2) = \ mathrm {N} (x_i \ กลาง \ …

2
ระยะห่างระหว่างส่วนผสม Gaussian จำกัด และ Gaussian จำกัด คืออะไร
สมมติว่าฉันมีส่วนผสมของ Gaussians จำนวนมากที่มีน้ำหนัก, ค่าเฉลี่ย, และค่าเบี่ยงเบนมาตรฐาน วิธีการไม่เท่ากัน แน่นอนว่าค่าเฉลี่ยและส่วนเบี่ยงเบนมาตรฐานของการผสมสามารถคำนวณได้เนื่องจากช่วงเวลานั้นมีค่าเฉลี่ยถ่วงน้ำหนักของช่วงเวลาของส่วนประกอบ ส่วนผสมไม่ได้เป็นการกระจายตัวแบบธรรมดา แต่ไกลแค่ไหนจากปกติ? ภาพด้านบนแสดงความหนาแน่นของความน่าจะเป็นที่เป็นไปได้สำหรับส่วนผสมแบบเกาส์พร้อมส่วนประกอบหมายถึงคั่นด้วยส่วนเบี่ยงเบนมาตรฐาน (ของส่วนประกอบ) และแบบเกาส์เดียวที่มีค่าเฉลี่ยและความแปรปรวนเหมือนกัน222 111 แรงจูงใจ:ฉันไม่เห็นด้วยกับคนขี้เกียจบางคนเกี่ยวกับการแจกแจงจริงบางอย่างที่พวกเขาไม่ได้วัดซึ่งพวกเขาคิดว่าใกล้เคียงกับปกติเพราะจะดี ฉันก็ขี้เกียจเหมือนกัน ฉันไม่ต้องการวัดการกระจายตัวเช่นกัน ฉันต้องการที่จะบอกว่าสมมติฐานของพวกเขานั้นไม่สอดคล้องกันเพราะพวกเขาบอกว่าการผสมผสานอัน จำกัด ของ Gaussians ด้วยวิธีการที่แตกต่างกันคือ Gaussian ซึ่งไม่ถูกต้อง ฉันไม่อยากจะบอกว่ารูปร่างของหางนั้นผิดเพราะสิ่งเหล่านี้เป็นเพียงการประมาณซึ่งควรจะมีความแม่นยำพอสมควรภายในค่าเบี่ยงเบนมาตรฐานของค่าเฉลี่ย ฉันอยากจะบอกว่าถ้าส่วนประกอบมีการประมาณค่าปกติจากการแจกแจงปกติแล้วส่วนผสมไม่ได้และฉันต้องการที่จะหาปริมาณนี้ L1L1L^12221/41/41/4

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.