คำถามติดแท็ก residuals

ค่าคงที่ของโมเดลคือค่าจริงลบด้วยค่าที่ทำนาย แบบจำลองทางสถิติหลายอย่างตั้งสมมติฐานเกี่ยวกับข้อผิดพลาดซึ่งประเมินโดยค่าตกค้าง

3
Mean Squared Error และผลรวมที่เหลือของกำลังสอง
ดูคำจำกัดความวิกิพีเดียของ: Mean Squared Error (MSE) ผลรวมที่เหลือของสี่เหลี่ยม (RSS) ดูเหมือนว่าฉันจะ MSE = 1ยังไม่มีข้อความRSS = 1ยังไม่มีข้อความ∑ ( fผม- yผม)2MSE=1ยังไม่มีข้อความRSS=1ยังไม่มีข้อความΣ(ฉผม-Yผม)2\text{MSE} = \frac{1}{N} \text{RSS} = \frac{1}{N} \sum (f_i -y_i)^2 โดยที่คือจำนวนตัวอย่างและคือการประมาณของเรายังไม่มีข้อความยังไม่มีข้อความNฉผมฉผมf_iYผมYผมy_i อย่างไรก็ตามบทความวิกิพีเดียไม่ได้พูดถึงความสัมพันธ์นี้ ทำไม? ฉันพลาดอะไรไปรึเปล่า?
31 residuals  mse 

2
ส่วนที่เหลือดิบกับส่วนที่เหลือมาตรฐานเมื่อเทียบกับส่วนที่เหลือ studentized - สิ่งที่จะใช้เมื่อไหร่?
นี่ดูเหมือนคำถามที่คล้ายกันและไม่ได้รับคำตอบมากมาย ละเว้นการทดสอบเช่น Cook's D และเพียงแค่ดูเศษเป็นกลุ่มฉันสนใจในวิธีที่คนอื่นใช้เศษเหลือใช้เมื่อประเมินความดีงามพอดี ฉันใช้ของเหลือใช้ดิบ: ใน QQ-plot เพื่อประเมินภาวะปกติ ในรูปแบบกระจายของเทียบกับส่วนที่เหลือสำหรับการตรวจลูกตาของ (a) hetereoscedasticity และ (b) autocorrelation ต่อเนื่องyyy สำหรับพล็อตเมื่อเทียบกับที่เหลือเพื่อตรวจสอบค่าสำหรับปีที่ผิดปกติอาจเกิดขึ้นฉันชอบที่จะใช้เหลือ studentized เหตุผลในการตั้งค่าของฉันคือมันช่วยให้ดูได้ง่ายว่าค่าที่เหลือซึ่งค่าyนั้นเป็นตัวปัญหาหรือไม่แม้ว่าค่าส่วนที่เหลือมาตรฐานจะให้ผลลัพธ์ที่คล้ายกันมาก ทฤษฎีของฉันที่ใช้คือมันขึ้นอยู่กับมหาวิทยาลัยที่เราไปyyyyyyyyy สิ่งนี้คล้ายกับวิธีที่คนอื่นใช้สารตกค้างหรือไม่ คนอื่น ๆ ใช้กราฟจำนวนนี้ร่วมกับสถิติสรุปหรือไม่

1
องศาอิสระเป็นหมายเลขที่ไม่ใช่จำนวนเต็มหรือไม่
เมื่อฉันใช้ GAM มันให้ DF ที่เหลือกับฉันคือ (บรรทัดสุดท้ายในรหัส) นั่นหมายความว่าอย่างไร? นอกเหนือไปจากตัวอย่างของ GAM โดยทั่วไปแล้วจำนวนองศาความเป็นอิสระจะเป็นจำนวนที่ไม่ใช่จำนวนเต็มหรือไม่26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max -4.1470 -1.6217 -0.8971 1.2445 6.0516 (Dispersion Parameter for gaussian family taken to be 6.6717) Null Deviance: 1126.047 on 31 degrees …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

3
ฉันควรตรวจสอบความเป็นมาตรฐานอย่างไร: ข้อมูลดิบหรือสิ่งตกค้าง
ฉันได้เรียนรู้ว่าฉันต้องทดสอบความเป็นปกติไม่ใช่ข้อมูลดิบ แต่เป็นของที่เหลืออยู่ ฉันควรคำนวณส่วนที่เหลือแล้วทำการทดสอบ W ของ Shapiro – Wilk หรือไม่ เศษที่เหลือคำนวณเป็น:หรือไม่Xi−meanXi−ค่าเฉลี่ยX_i - \text{mean} โปรดดูคำถามก่อนหน้านี้สำหรับข้อมูลและการออกแบบของฉัน

5
ความสัมพันธ์ที่คาดหวังระหว่างส่วนที่เหลือและตัวแปรตามคืออะไร?
ในการถดถอยเชิงเส้นหลายครั้งฉันสามารถเข้าใจความสัมพันธ์ระหว่างส่วนที่เหลือและตัวทำนายได้ว่าเป็นศูนย์ แต่ความสัมพันธ์ที่คาดหวังระหว่างตัวแปรที่เหลือและตัวแปรคืออะไร คาดว่าจะมีค่าเป็นศูนย์หรือมีความสัมพันธ์สูง? ความหมายของสิ่งนั้นคืออะไร?

2
การวินิจฉัยรุ่นเชิงเส้น (แบบผสม) ทั่วไป (ส่วนที่เหลือโดยเฉพาะ)
ฉันกำลังดิ้นรนกับการหารูปแบบที่เหมาะสมสำหรับข้อมูลการนับยาก (ตัวแปรตาม) ฉันลองรุ่นที่แตกต่างหลากหลาย (โมเดลเอฟเฟ็กต์แบบผสมมีความจำเป็นสำหรับข้อมูลชนิดของฉัน) เช่นlmerและlme4(พร้อมการแปลงล็อก) รวมถึงโมเดลเอฟเฟกต์แบบผสมเชิงเส้นทั่วไปกับครอบครัวต่างๆเช่น Gaussian หรือ Binomial เชิงลบ อย่างไรก็ตามฉันค่อนข้างไม่แน่ใจในวิธีการวินิจฉัยอย่างถูกต้องเหมาะสมกับผลลัพธ์ ฉันพบความคิดเห็นที่แตกต่างกันมากมายในหัวข้อนั้นบนเว็บ ฉันคิดว่าการวินิจฉัยการถดถอยเชิงเส้น (แบบผสม) ค่อนข้างตรงไปตรงมา คุณสามารถไปข้างหน้าและวิเคราะห์ส่วนที่เหลือ (ปกติ) รวมทั้งศึกษา heteroscedasticity โดยการวางแผนค่าติดตั้งเปรียบเทียบกับส่วนที่เหลือ อย่างไรก็ตามคุณจะทำอย่างนั้นสำหรับรุ่นทั่วไปได้อย่างไร ให้เรามุ่งเน้นการถดถอยแบบทวินามลบ (แบบผสม) ในตอนนี้ ฉันเห็นข้อความคัดค้านที่เกี่ยวข้องกับสิ่งที่เหลืออยู่ที่นี่: ในการตรวจสอบค่าคงที่สำหรับค่าปกติในโมเดลเชิงเส้นทั่วไปมันจะถูกชี้ให้เห็นในคำตอบแรกว่าส่วนที่เหลือจะไม่แจกแจงแบบปกติสำหรับ GLM; ฉันคิดว่านี่ชัดเจน อย่างไรก็ตามมันก็ชี้ให้เห็นว่าเพียร์สันและส่วนเบี่ยงเบนเบี่ยงเบนก็ไม่ควรจะเป็นปกติ กระนั้นคำตอบที่สองระบุว่าควรแจกแจกส่วนเบี่ยงเบนปกติ (รวมกับการอ้างอิง) โดยปกติแล้วความเบี่ยงเบนที่เหลืออยู่นั้นควรจะมีการบอกกล่าวไว้ในเอกสารประกอบสำหรับ? glm.diag.plots (จากbootแพ็คเกจของ R ) ในบล็อกโพสต์นี้ผู้เขียนได้ทำการศึกษาเรื่องปกติของสิ่งที่ฉันคิดว่าเป็นของเพียร์สันสำหรับแบบจำลองการถดถอยแบบผสมผลกระทบ NB ตามที่คาดไว้ (ตามความเห็นของฉัน) เศษซากไม่ได้แสดงให้เห็นว่าเป็นเรื่องปกติและผู้เขียนสันนิษฐานว่าแบบจำลองนี้ไม่เหมาะสม อย่างไรก็ตามตามที่ระบุไว้ในความคิดเห็นที่เหลือควรกระจายตามการกระจายทวินามลบ ในความคิดของฉันสิ่งนี้ใกล้เคียงกับความจริงมากที่สุดเนื่องจากส่วนที่เหลือของ GLM สามารถมีการแจกแจงแบบอื่นที่ไม่ใช่แบบปกติ ถูกต้องหรือไม่ จะตรวจสอบสิ่งต่าง ๆ เช่น heteroscedasticity …

4
ความแตกต่างระหว่างข้อผิดพลาดและส่วนที่เหลือคืออะไร?
ในขณะที่คำที่แพร่หลายทั้งสองนี้มักจะใช้คำพ้องความหมายเหมือนกัน แต่บางครั้งก็ดูเหมือนจะมีความแตกต่าง มีความแตกต่างอย่างแน่นอนหรือว่าพวกเขามีความหมายเหมือนกัน?

5
สมมติฐานของตัวแบบเชิงเส้นและจะทำอย่างไรถ้าส่วนที่เหลือไม่ได้รับการแจกแจงแบบปกติ
ฉันสับสนเล็กน้อยว่าสมมติฐานของการถดถอยเชิงเส้นคืออะไร จนถึงตอนนี้ฉันตรวจสอบว่า: ตัวแปรอธิบายทั้งหมดมีความสัมพันธ์เชิงเส้นตรงกับตัวแปรตอบกลับ (ในกรณีนี้) มี collinearity ใด ๆ ในหมู่ตัวแปรอธิบาย (มี collinearity น้อย) ระยะทางของชุดข้อมูลของโมเดลของ Cook ต่ำกว่า 1 (ในกรณีนี้ระยะทางทั้งหมดอยู่ต่ำกว่า 0.4 ดังนั้นจึงไม่มีคะแนนอิทธิพล) ส่วนที่เหลือจะกระจายตามปกติ (อาจไม่เป็นเช่นนั้น) แต่ฉันก็อ่านต่อไปนี้: การฝ่าฝืนกฎเกณฑ์มักเกิดขึ้นเพราะ (ก) การกระจายของตัวแปรตามและ / หรือตัวแปรอิสระเป็นตัวของตัวเองอย่างมีนัยสำคัญที่ไม่ปกติและ / หรือ (ข) ข้อสมมติเชิงเส้นถูกละเมิด คำถามที่ 1 สิ่งนี้ทำให้ฟังดูเหมือนว่าตัวแปรอิสระและตัวแปรตามต้องได้รับการกระจายตามปกติ แต่เท่าที่ฉันรู้ว่านี่ไม่ใช่กรณี ตัวแปรตามของฉันเช่นเดียวกับหนึ่งในตัวแปรอิสระของฉันไม่ได้กระจายตามปกติ พวกเขาควรจะเป็นอย่างไร คำถามที่ 2 พล็อต QQ ของฉันปกติมีลักษณะดังนี้: นั่นแตกต่างจากการแจกแจงแบบปกติเล็กน้อยและshapiro.testยังปฏิเสธสมมติฐานว่าง ๆ ว่าส่วนที่เหลือมาจากการแจกแจงแบบปกติ: > shapiro.test(residuals(lmresult)) W = 0.9171, …

2
เหตุใดภาวะปกติของสิ่งตกค้างจึงแทบไม่สำคัญเลยสำหรับการประเมินเส้นถดถอย
Gelman and Hill (2006) เขียนใน p46 ที่: ข้อสันนิษฐานการถดถอยที่โดยทั่วไปมีความสำคัญน้อยที่สุดคือข้อผิดพลาดจะกระจายตามปกติ ในความเป็นจริงเพื่อจุดประสงค์ในการประเมินเส้นการถดถอย (เมื่อเทียบกับการทำนายจุดข้อมูลของแต่ละบุคคล) การสันนิษฐานของความเป็นมาตรฐานนั้นแทบไม่มีความสำคัญเลย ดังนั้นในทางตรงกันข้ามกับหนังสือเรียนการถดถอยหลายฉบับเราไม่แนะนำให้ทำการวินิจฉัยภาวะปกติของเศษซากถดถอย Gelman และ Hill ดูเหมือนจะไม่อธิบายประเด็นนี้อีกต่อไป Gelman และ Hill ถูกต้องหรือไม่? ถ้าเป็นเช่นนั้น: ทำไม "แทบไม่มีความสำคัญเลย" ทำไมมันไม่สำคัญหรือไม่เกี่ยวข้องเลย? เหตุใดจึงเป็นเรื่องปกติของการตกค้างในการทำนายจุดข้อมูลแต่ละจุด? Gelman, A. , & Hill, J. (2006) การวิเคราะห์ข้อมูลโดยใช้การถดถอยและตัวแบบหลายระดับ / ลำดับชั้น สำนักพิมพ์มหาวิทยาลัยเคมบริดจ์

1
การวินิจฉัยที่เหลือในรูปแบบการถดถอยแบบ MCMC
ฉันเพิ่งลงมือเมื่อไม่นานมานี้ในแบบผสมการถดถอยที่เหมาะสมในกรอบ Bayesian โดยใช้อัลกอริทึม MCMC (ฟังก์ชั่น MCMCglmm ใน R จริง) ฉันเชื่อว่าฉันเข้าใจวิธีการวินิจฉัยลู่เข้าของกระบวนการประมาณ (ติดตาม, พล็อต geweke, autocorrelation, การกระจายหลัง ... ) สิ่งหนึ่งที่ทำให้ฉันตกอยู่ในกรอบการทำงานของ Bayesian คือความพยายามอย่างมากที่จะอุทิศให้กับการวินิจฉัยเหล่านั้นในขณะที่ดูเหมือนว่าจะทำได้น้อยมากในแง่ของการตรวจสอบชิ้นส่วนที่เหลือของแบบจำลองที่ติดตั้ง ยกตัวอย่างเช่นใน MCMCglmm ส่วนฟังก์ชั่น residual.mcmc () นั้นยังมีอยู่ แต่ยังไม่ได้นำไปใช้จริง (เช่นส่งกลับ: "ส่วนที่เหลือยังไม่ได้นำไปใช้กับวัตถุ MCMCglmm"; เรื่องเดียวกันสำหรับทำนาย. ดูเหมือนว่าจะขาดจากแพ็คเกจอื่น ๆ เช่นกันและโดยทั่วไปแล้วจะมีการพูดคุยกันเล็กน้อยในวรรณคดีที่ฉันพบ ใครช่วยชี้ให้ฉันถึงการอ้างอิงที่มีประโยชน์และรหัส R ที่ฉันสามารถเล่นหรือแก้ไขได้ ขอบคุณมาก.

2
ในการถดถอยเชิงเส้นอย่างง่ายสูตรการแปรปรวนของค่าตกค้างมาจากไหน?
ตามข้อความที่ฉันใช้สูตรสำหรับความแปรปรวนของส่วนที่เหลือจะได้รับจาก:ผมt hithi^{th} σ2( 1 - 1)n- ( xผม- x¯¯¯)2Sx x)σ2(1−1n−(xi−x¯)2Sxx)\sigma^2\left ( 1-\frac{1}{n}-\frac{(x_{i}-\overline{x})^2}{S_{xx}} \right ) ฉันพบนี้ยากที่จะเชื่อตั้งแต่ที่เหลือคือความแตกต่างระหว่างค่าสังเกตและค่าติดตั้ง; ถ้าใครจะคำนวณความแปรปรวนของความแตกต่างอย่างน้อยที่สุดฉันก็คาดหวังว่า "บวก" บางอย่างในการแสดงออกที่เกิดขึ้น ความช่วยเหลือใด ๆ ในการทำความเข้าใจแหล่งที่มาจะได้รับการชื่นชมผมt hithi^{th}ผมt hithi^{th}ผมt hithi^{th}

2
สถาปัตยกรรมคอขวดทำงานในเครือข่ายประสาทได้อย่างไร
เรากำหนดสถาปัตยกรรมคอขวดเป็นประเภทที่พบในกระดาษResNetโดยที่ [เลเยอร์ 3x3 Conv สอง] ถูกแทนที่ด้วย [หนึ่ง 1x1 Conv, หนึ่ง 3x3 Conv และอีกหนึ่ง 1x1 Conv ชั้น] ผมเข้าใจว่าชั้น 1x1 แปลงจะใช้เป็นรูปแบบของการลดมิติ (และบูรณะ) ซึ่งจะมีการอธิบายในโพสต์อื่น อย่างไรก็ตามฉันไม่แน่ใจว่าทำไมโครงสร้างนี้จึงมีประสิทธิภาพเหมือนกับเค้าโครงดั้งเดิม คำอธิบายที่ดีบางประการอาจรวมถึง: มีการใช้ความยาวแบบก้าวใดและเลเยอร์ใด ตัวอย่างอินพุตและเอาต์พุตมิติของแต่ละโมดูลคืออะไร? แผนผังคุณลักษณะ 56x56 แสดงในแผนภาพด้านบนอย่างไร 64-d อ้างถึงจำนวนตัวกรองเหตุใดจึงแตกต่างจากตัวกรอง 256-d มีการใช้น้ำหนักหรือฟล็อปกี่ครั้งในแต่ละชั้น การอภิปรายใด ๆ ที่ชื่นชมอย่างมาก!

1
สัญชาตญาณตัวประเมินแซนวิช
วิกิพีเดียและ R แพคเกจแซนวิชบทความให้ข้อมูลที่ดีเกี่ยวกับสมมติฐานที่สนับสนุน OLS ค่าสัมประสิทธิ์ข้อผิดพลาดมาตรฐานและพื้นหลังทางคณิตศาสตร์ของประมาณแซนวิช ฉันยังไม่ชัดเจนว่าปัญหาของ heteroscedasticity ได้รับการแก้ไขอย่างไร แต่อาจเป็นเพราะฉันไม่เข้าใจการประมาณค่าสัมประสิทธิ์ความแปรปรวนของ OLS มาตรฐานในตอนแรก สัญชาตญาณเบื้องหลังตัวประมาณแซนวิชคืออะไร

2
แปลงที่เหลือ: ทำไมพล็อตกับค่าที่ติดตั้งไม่สังเกตค่า
ในบริบทของการถดถอย OLS ฉันเข้าใจว่าพล็อตที่เหลือ (เทียบกับค่าติดตั้ง) ถูกมองตามอัตภาพเพื่อทดสอบความแปรปรวนคงที่และประเมินรูปแบบของแบบจำลอง เหตุใดจึงมีการพล็อตสิ่งที่แนบมาพอดีและไม่ใช่ค่าข้อมูลแตกต่างจากทั้งสองแปลงอย่างไรYYY ฉันกำลังทำงานกับแบบจำลองที่สร้างแผนการที่เหลือต่อไปนี้: ดังนั้นพล็อตกับค่าติดตั้งจึงดูดีอย่างรวดเร็ว แต่พล็อตที่สองเทียบกับค่ามีรูปแบบ ฉันสงสัยว่าทำไมรูปแบบเด่นชัดดังกล่าวจะไม่ปรากฏในพล็อตที่เหลือเทียบกับพอดี ....YYY ฉันไม่ได้ต้องการความช่วยเหลือในการวินิจฉัยปัญหาเกี่ยวกับตัวแบบ แต่เพียงแค่พยายามเข้าใจความแตกต่าง (โดยทั่วไป) ระหว่าง (1) ส่วนที่เหลือเทียบกับพอดีและ & (2) ส่วนที่เหลือเทียบกับพล็อต YYY สำหรับสิ่งที่คุ้มค่าฉันแน่ใจว่ารูปแบบข้อผิดพลาดในแผนภูมิที่สองนั้นเกิดจากตัวแปรที่ละเว้นซึ่งมีผลต่อ DV ขณะนี้ฉันกำลังหาข้อมูลซึ่งฉันคาดหวังว่าจะช่วยให้พอดีและโดยรวมได้ ฉันกำลังทำงานกับข้อมูลอสังหาริมทรัพย์: DV = ราคาขาย เกลือ: sq.ft ของบ้าน # พื้นที่โรงรถปีสร้างขึ้นในปีสร้างขึ้น 2 22^2

4
จะประเมินความพอดีของ binomial GLMM ที่ติดตั้ง lme4 (> 1.0) ได้อย่างไร?
ฉันมี GLMM ที่มีการแจกแจงแบบทวินามและฟังก์ชันการเชื่อมโยง logit และฉันรู้สึกว่าข้อมูลที่สำคัญไม่ได้ถูกนำเสนอในโมเดล เพื่อทดสอบสิ่งนี้ฉันอยากจะรู้ว่าข้อมูลถูกอธิบายอย่างดีโดยฟังก์ชันเชิงเส้นในสเกล logit หรือไม่ ดังนั้นฉันต้องการทราบว่าส่วนที่เหลือมีความประพฤติดีหรือไม่ อย่างไรก็ตามฉันไม่สามารถหาว่าพล็อตส่วนที่เหลือจะพล็อตและวิธีการตีความพล็อต โปรดทราบว่าฉันใช้รุ่นใหม่ของ lme4 ( รุ่นพัฒนาจาก GitHub ): packageVersion("lme4") ## [1] ‘1.1.0’ คำถามของฉันคือ: ฉันจะตรวจสอบและตีความส่วนที่เหลือของแบบผสมเชิงเส้นแบบทวินามเชิงเส้นทั่วไปพร้อมฟังก์ชันการเชื่อมโยง logit ได้อย่างไร ข้อมูลต่อไปนี้แสดงให้เห็นถึงข้อมูลจริงของฉันเพียง 17% แต่การติดตั้งอุปกรณ์ใช้เวลาประมาณ 30 วินาทีบนเครื่องของฉันดังนั้นฉันจึงปล่อยให้มันเป็นเช่นนี้: require(lme4) options(contrasts=c('contr.sum', 'contr.poly')) dat <- read.table("http://pastebin.com/raw.php?i=vRy66Bif") dat$V1 <- factor(dat$V1) m1 <- glmer(true ~ distance*(consequent+direction+dist)^2 + (direction+dist|V1), dat, family = binomial) พล็อตที่ง่ายที่สุด …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.