คำถามติดแท็ก normal-distribution

การแจกแจงแบบปกติหรือแบบเกาส์เซียนนั้นมีฟังก์ชั่นความหนาแน่นซึ่งเป็นเส้นโค้งรูประฆังแบบสมมาตร มันเป็นหนึ่งในการแจกแจงที่สำคัญที่สุดในสถิติ ใช้แท็ก [normality] เพื่อสอบถามเกี่ยวกับการทดสอบหา normality

6
มูลค่าการแจกแจงความน่าจะเป็นที่เกิน 1 สามารถเป็นได้หรือไม่?
ในหน้า Wikipedia เกี่ยวกับตัวแยกประเภทซื่อๆ Bayesมีบรรทัดนี้: p(height|male)=1.5789p(height|male)=1.5789p(\mathrm{height}|\mathrm{male}) = 1.5789 (การกระจายความน่าจะเป็นที่มากกว่า 1 คือ OK มันคือพื้นที่ใต้เส้นโค้งระฆังที่เท่ากับ 1) ค่าจะตกลงได้อย่างไร? ผมคิดว่าน่าจะเป็นค่าทั้งหมดถูกแสดงในช่วง1 นอกจากนี้หากเป็นไปได้ที่จะมีค่าเช่นนั้นค่าที่ได้จากตัวอย่างที่แสดงในหน้าเป็นอย่างไร>1>1>10≤p≤10≤p≤10 \leq p \leq 1

9
คำอธิบายจากระยะไกลถึงบนสุดของระยะทาง Mahalanobis คืออะไร?
ฉันเรียนรู้รูปแบบและสถิติและเกือบหนังสือฉันเปิดในเรื่องที่ทุกฉันชนแนวคิดของระยะทาง Mahalanobis หนังสือให้คำอธิบายที่เข้าใจง่าย แต่ก็ยังไม่ดีพอสำหรับฉันที่จะเข้าใจสิ่งที่เกิดขึ้นจริง ๆ ถ้ามีคนถามฉันว่า "มาฮาโลโนบิสระยะทางเท่าไหร่" ฉันทำได้แค่ตอบว่า: "มันเป็นสิ่งที่ดีมากซึ่งวัดระยะทางได้" :) คำจำกัดความมักจะมีค่าลักษณะเฉพาะและค่าลักษณะเฉพาะซึ่งฉันมีปัญหาเล็กน้อยในการเชื่อมต่อกับระยะทาง Mahalanobis ฉันเข้าใจความหมายของคำว่า eigenvector และค่าลักษณะเฉพาะ แต่พวกมันเกี่ยวข้องกับระยะทาง Mahalanobis อย่างไร มีอะไรเกี่ยวข้องกับการเปลี่ยนฐานใน Linear Algebra เป็นต้นหรือไม่? ฉันได้อ่านคำถามก่อนหน้านี้ในหัวข้อนี้ด้วย: ระยะ Mahalanobis คืออะไรและใช้ในการจดจำรูปแบบอย่างไร คำอธิบายที่ใช้งานง่ายสำหรับฟังก์ชั่นการแจกแจงแบบเกาส์และระยะทาง mahalanobis (Math.SE) ฉันได้อ่านคำอธิบายนี้ด้วย คำตอบที่ดีและภาพที่ดี แต่ยังคงฉันไม่ได้จริงๆได้รับมัน ... ฉันมีความคิด แต่ก็ยังคงอยู่ในความมืด ใครสามารถให้ "คุณจะอธิบายให้คุณยายของคุณ" ได้อย่างไร - อธิบายเพื่อที่ฉันจะได้สรุปในที่สุดและไม่เคยสงสัยอีกครั้งว่าห่าคือระยะทาง Mahalanobis? :) มันมาจากอะไรทำไม? UPDATE: นี่คือสิ่งที่ช่วยทำความเข้าใจสูตร Mahalanobis: https://math.stackexchange.com/questions/428064/distance-of-a-test-point-from-the-center-of-an-ellipsoid

2
สืบทอดการแจกแจงแบบมีเงื่อนไขของการแจกแจงปกติหลายตัวแปร
เรามีเวกเตอร์ปกติหลายตัวแปรSigma) พิจารณาการแบ่งและลงใน Y∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma)μμ\boldsymbol\muYY{\boldsymbol Y}μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} กับพาร์ติชันที่คล้ายกันของΣΣ\Sigmaเป็น [Σ11Σ21Σ12Σ22][Σ11Σ12Σ21Σ22] \begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{bmatrix} จากนั้น(y1|y2=a)(y1|y2=a)({\boldsymbol y}_1|{\boldsymbol y}_2={\boldsymbol a})การแจกแจงแบบมีเงื่อนไขของพาร์ติชั่นแรกที่ได้รับสองคือ N(μ¯¯¯¯,Σ¯¯¯¯)N(μ¯,Σ¯)\mathcal{N}(\overline{\boldsymbol\mu},\overline{\Sigma})มีค่าเฉลี่ย μ¯¯¯¯=μ1+Σ12Σ22−1(a−μ2)μ¯=μ1+Σ12Σ22−1(a−μ2) \overline{\boldsymbol\mu}=\boldsymbol\mu_1+\Sigma_{12}{\Sigma_{22}}^{-1}({\boldsymbol a}-\boldsymbol\mu_2) และเมทริกซ์ความแปรปรวนร่วม Σ¯¯¯¯=Σ11−Σ12Σ22−1Σ21Σ¯=Σ11−Σ12Σ22−1Σ21 \overline{\Sigma}=\Sigma_{11}-\Sigma_{12}{\Sigma_{22}}^{-1}\Sigma_{21} ที่จริงแล้วผลลัพธ์เหล่านี้มีให้ใน Wikipedia ด้วย แต่ฉันไม่รู้ว่าμ¯¯¯¯μ¯\overline{\boldsymbol\mu}และΣ¯¯¯¯Σ¯\overline{\Sigma}มาจากไหน ผลลัพธ์เหล่านี้มีความสำคัญเนื่องจากพวกเขาเป็นสูตรทางสถิติที่สำคัญสำหรับ deriving กรองคาลมาน ใครบ้างจะให้ขั้นตอนที่ได้มาของฉันμ¯¯¯¯μ¯\overline{\boldsymbol\mu}และΣ¯¯¯¯Σ¯\overline{\Sigma}ขอบคุณมาก!

3
เป็นไปได้ไหมที่จะมีตัวแปรสุ่มแบบเกาส์ซึ่งเป็นการกระจายข้อต่อไม่ใช่เกาส์เซียน
ใครบางคนถามคำถามนี้กับฉันในการสัมภาษณ์งานและฉันตอบว่าการกระจายข้อต่อเป็นแบบเกาส์น ฉันคิดว่าฉันสามารถเขียนเกาส์ไบรอาริเอตด้วยวิธีและความแปรปรวนและความแปรปรวนร่วมได้ ฉันสงสัยว่าอาจมีกรณีที่น่าจะเป็นร่วมกันของ Gaussians สองไม่ Gaussian?

2
ความแตกต่างของ KL ระหว่าง Gaussians ที่ไม่เปลี่ยนแปลงสองตัว
ฉันจำเป็นต้องกำหนด KL-divergence ระหว่างสอง Gaussians ฉันกำลังเปรียบเทียบผลลัพธ์ของฉันกับสิ่งเหล่านี้แต่ฉันไม่สามารถทำซ้ำผลลัพธ์ของพวกเขาได้ ผลลัพธ์ของฉันผิดอย่างชัดเจนเนื่องจาก KL ไม่ใช่ 0 สำหรับ KL (p, p) ฉันสงสัยว่าฉันกำลังทำผิดพลาดและถามว่าใครสามารถตรวจสอบได้ ให้p(x)=N(μ1,σ1)p(x)=N(μ1,σ1)p(x) = N(\mu_1, \sigma_1)และq(x)=N(μ2,σ2)q(x)=N(μ2,σ2)q(x) = N(\mu_2, \sigma_2) ) จาก PRML ของ Bishop ฉันรู้ว่า KL(p,q)=−∫p(x)logq(x)dx+∫p(x)logp(x)dxKL(p,q)=−∫p(x)log⁡q(x)dx+∫p(x)log⁡p(x)dxKL(p, q) = - \int p(x) \log q(x) dx + \int p(x) \log p(x) dx โดยที่การรวมเข้าด้วยกันจะทำในทุกบรรทัดจริงและ ∫p(x)logp(x)dx=−12(1+log2πσ21),∫p(x)log⁡p(x)dx=−12(1+log⁡2πσ12),\int p(x) \log p(x) dx = -\frac{1}{2} …

3
ตัวอย่าง: การถดถอย LASSO โดยใช้ glmnet สำหรับผลลัพธ์ไบนารี
ฉันเริ่มตะลุยกับการใช้งานglmnetกับการถดถอยแบบ LASSOซึ่งผลลัพธ์ของความสนใจของฉันนั้นเป็นแบบขั้วคู่ ฉันได้สร้างกรอบข้อมูลจำลองขนาดเล็กด้านล่าง: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

7
T-test ไม่ปกติเมื่อ N> 50?
นานมาแล้วฉันได้เรียนรู้ว่าการแจกแจงแบบปกติจำเป็นต้องใช้การทดสอบตัวอย่างสองชุด วันนี้เพื่อนร่วมงานคนหนึ่งบอกฉันว่าเธอเรียนรู้ว่าสำหรับการแจกแจงปกติ N> 50 นั้นไม่จำเป็น มันเป็นเรื่องจริงเหรอ? ถ้าเป็นจริงก็เพราะทฤษฎีบทขีด จำกัด กลาง?

3
ใครเป็นผู้สร้างตารางปกติมาตรฐานแรก
ฉันกำลังจะแนะนำตารางมาตรฐานมาตรฐานในชั้นเรียนสถิติเบื้องต้นของฉันและนั่นทำให้ฉันสงสัยว่า: ใครเป็นผู้สร้างตารางมาตรฐานมาตรฐานแรก พวกเขาทำมันอย่างไรก่อนที่คอมพิวเตอร์จะเข้ามา? ฉันตัวสั่นที่คิดว่าใครบางคนกำลังบังคับให้คำนวณผลรวมของ Riemann หนึ่งพันด้วยมือ

5
ทฤษฎีขีด จำกัด กลางสำหรับค่ามัธยฐานตัวอย่าง
ถ้าฉันคำนวณค่ามัธยฐานของจำนวนการสังเกตที่มากพอจากการแจกแจงแบบเดียวกันทฤษฎีบทขีด จำกัด กลางจะระบุว่าการกระจายของค่ามัธยฐานจะประมาณการกระจายตัวแบบปกติหรือไม่? ความเข้าใจของฉันคือว่านี่เป็นความจริงด้วยวิธีการของกลุ่มตัวอย่างจำนวนมาก แต่มันก็เป็นความจริงกับมัธยฐาน? ถ้าไม่เป็นเช่นนั้นการกระจายตัวพื้นฐานของค่ามัธยฐานตัวอย่างคืออะไร

14
อะไรคือลักษณะที่น่าแปลกใจที่สุดของการแจกแจงแบบเกาส์ (ปกติ)?
การแจกแจงแบบเกาส์มาตรฐานบนสามารถกำหนดได้โดยให้ความหนาแน่นอย่างชัดเจน: RR\mathbb{R}12π−−√e−x2/212πe−x2/2 \frac{1}{\sqrt{2\pi}}e^{-x^2/2} หรือฟังก์ชั่นลักษณะของมัน ตามที่นึกไว้ในคำถามนี้มันก็เป็นเพียงการแจกแจงที่ค่าเฉลี่ยและความแปรปรวนตัวอย่างเป็นอิสระ อะไรคือคุณสมบัติทางเลือกที่น่าแปลกใจอื่น ๆ ของ Gaussian ที่คุณรู้ ฉันจะยอมรับคำตอบที่น่าประหลาดใจที่สุด

5
R - QQPlot: วิธีการดูว่ามีการกระจายข้อมูลตามปกติ
ฉันได้วางแผนเรื่องนี้หลังจากที่ฉันทำการทดสอบตามปกติ การทดสอบแสดงให้เห็นว่ามีโอกาสที่ประชากรจะกระจายตัวตามปกติ อย่างไรก็ตามวิธีดู "พฤติกรรม" นี้ในพล็อตนี้ UPDATE ฮิสโตแกรมอย่างง่ายของข้อมูล: UPDATE การทดสอบของ Shapiro-Wilk พูดว่า:

3
สัญชาตญาณของการแจกแจงแบบเกาส์ที่มีเงื่อนไขคืออะไร
สมมติว่าSigma}) จากนั้นการแจกแจงตามเงื่อนไขของเนื่องจากนั้นมีการกระจายหลายตัวแปรตามปกติด้วยค่าเฉลี่ยX∼N2(μ,Σ)X∼N2(μ,Σ)\mathbf{X} \sim N_{2}(\mathbf{\mu}, \mathbf{\Sigma})X1X1X_1X2=x2X2=x2X_2 = x_2 E[P(X1|X2=x2)]=μ1+σ12σ22(x2−μ2)E[P(X1|X2=x2)]=μ1+σ12σ22(x2−μ2) E[P(X_1 | X_2 = x_2)] = \mu_1+\frac{\sigma_{12}}{\sigma_{22}}(x_2-\mu_2) และความแปรปรวน:Var[P(X1|X2=x2)]=σ11−σ212σ22Var[P(X1|X2=x2)]=σ11−σ122σ22{\rm Var}[P(X_1 | X_2 = x_2)] = \sigma_{11}-\frac{\sigma_{12}^{2}}{\sigma_{22}} มันสมเหตุสมผลที่ความแปรปรวนจะลดลงเนื่องจากเรามีข้อมูลเพิ่มเติม แต่สัญชาตญาณที่อยู่เบื้องหลังสูตรหมายถึงอะไร ความแปรปรวนร่วมระหว่างและเป็นปัจจัยที่มีเงื่อนไขอย่างไรX 2X1X1X_1X2X2X_2

6
เปอร์เซ็นต์ของส่วนที่ทับซ้อนกันของการแจกแจงปกติสองค่า
ฉันสงสัยว่าได้รับการแจกแจงปกติสองค่าด้วยและσ1, μ1σ1, μ1\sigma_1,\ \mu_1σ2, μ2σ2, μ2\sigma_2, \ \mu_2 ฉันจะคำนวณเปอร์เซ็นต์ของพื้นที่ที่ทับซ้อนกันของการแจกแจงสองแบบได้อย่างไร ฉันคิดว่าปัญหานี้มีชื่อเฉพาะคุณทราบชื่อเฉพาะที่อธิบายถึงปัญหานี้หรือไม่? คุณทราบหรือไม่ว่ามีการใช้งานสิ่งนี้ (เช่นรหัส Java)?

1
ความแตกต่างของ KL ระหว่าง Gaussians หลายตัวแปร
ฉันมีปัญหาในการรับสูตร divergence ของ KL โดยสมมติว่ามีการแจกแจงปกติหลายตัวแปรสองตัว ฉันทำคดี univariate ค่อนข้างง่าย อย่างไรก็ตามมันก็ค่อนข้างนานแล้วที่ฉันเอาสถิติทางคณิตศาสตร์มาก่อน ฉันแน่ใจว่าฉันแค่คิดถึงบางสิ่งที่เรียบง่าย นี่คือสิ่งที่ฉันมี ... สมมติว่าทั้งและเป็นไฟล์ PDF ของการแจกแจงแบบปกติที่มีค่าเฉลี่ยและและความแปรปรวนและตามลำดับ ระยะทาง Kullback-Leibler จากถึงคือ:pppμ 1 μ 2 Σ 1 Σ 2 q pqqqμ1μ1\mu_1μ2μ2\mu_2Σ1Σ1\Sigma_1Σ2Σ2\Sigma_2qqqppp ∫[บันทึก( p ( x ) ) - บันทึก( q( x ) ) ] p ( x ) d x∫[log⁡(p(x))−log⁡(q(x))] p(x) dx\int \left[\log( p(x)) …

3
มีความแตกต่างระหว่าง lm และ glm สำหรับตระกูล gaussian ของ glm หรือไม่?
โดยเฉพาะผมต้องการที่จะทราบว่ามีความแตกต่างระหว่างและlm(y ~ x1 + x2) glm(y ~ x1 + x2, family=gaussian)ฉันคิดว่ากรณีเฉพาะของ glm นี้เท่ากับ lm ฉันผิดหรือเปล่า?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.