ข้อผิดพลาดมาตรฐานที่เหลือแตกต่างระหว่างการเพิ่มประสิทธิภาพและ glm


16

ฉันพยายามที่จะทำซ้ำกับoptimผลลัพธ์จากการถดถอยเชิงเส้นอย่างง่ายที่พอดีกับglmหรือแม้แต่nlsฟังก์ชั่น R
การประมาณพารามิเตอร์เหมือนกัน แต่การประมาณค่าความแปรปรวนที่เหลือและข้อผิดพลาดมาตรฐานของพารามิเตอร์อื่นจะไม่เหมือนกันโดยเฉพาะเมื่อขนาดตัวอย่างต่ำ ฉันคิดว่านี่เป็นความแตกต่างเนื่องจากวิธีการคำนวณข้อผิดพลาดมาตรฐานที่เหลือระหว่างความน่าจะเป็นสูงสุดและวิธีกำลังสองน้อยที่สุด (หารด้วย n หรือโดย n-k + 1 ดูการร้องในตัวอย่าง)
ผมเข้าใจจากการอ่านของฉันบนเว็บที่เพิ่มประสิทธิภาพไม่ได้เป็นงานที่ง่าย แต่ผมสงสัยว่าถ้ามันจะเป็นไปได้ที่จะทำซ้ำในวิธีที่ง่ายประมาณการจากข้อผิดพลาดมาตรฐานในขณะที่ใช้glmoptim

จำลองชุดข้อมูลขนาดเล็ก

set.seed(1)
n = 4 # very small sample size !
b0 <- 5
b1 <- 2
sigma <- 5
x <- runif(n, 1, 100)
y =  b0 + b1*x + rnorm(n, 0, sigma) 

ประเมินด้วยประสิทธิภาพ

negLL <- function(beta, y, x) {
    b0 <- beta[1]
    b1 <- beta[2]
    sigma <- beta[3]
    yhat <- b0 + b1*x
    likelihood <- dnorm(y, yhat, sigma)
    return(-sum(log(likelihood)))
}

res <- optim(starting.values, negLL, y = y, x = x, hessian=TRUE)
estimates <- res$par     # Parameters estimates
se <- sqrt(diag(solve(res$hessian))) # Standard errors of the estimates
cbind(estimates,se)


    > cbind(estimates,se)
      estimates         se
b0     9.016513 5.70999880
b1     1.931119 0.09731153
sigma  4.717216 1.66753138

เปรียบเทียบกับ glm และ nls

> m <- glm(y ~ x)
> summary(m)$coefficients
            Estimate Std. Error   t value    Pr(>|t|)
(Intercept) 9.016113  8.0759837  1.116411 0.380380963
x           1.931130  0.1376334 14.030973 0.005041162
> sqrt(summary(m)$dispersion) # residuals standard error
[1] 6.671833
> 
> summary(nls( y ~ b0 + b1*x, start=list(b0 = 5, b1= 2)))

Formula: y ~ b0 + b1 * x

Parameters:
   Estimate Std. Error t value Pr(>|t|)   
b0   9.0161     8.0760   1.116  0.38038   
b1   1.9311     0.1376  14.031  0.00504 **
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1   1

Residual standard error: 6.672 on 2 degrees of freedom

ฉันสามารถทำซ้ำประมาณการข้อผิดพลาดมาตรฐานที่เหลือที่แตกต่างกันเช่นนี้

> # optim / Maximum Likelihood estimate
> sqrt(sum(resid(m)^2)/n)
[1] 4.717698
> 
> # Least squares estimate (glm and nls estimates)
> k <- 3 # number of parameters
> sqrt(sum(resid(m)^2)/(n-k+1))
[1] 6.671833

คำตอบ:


9

ปัญหาคือข้อผิดพลาดมาตรฐานมาจาก

σ^2(XX)1

σ^2summary.lm

summary.lm
#R function (object, correlation = FALSE, symbolic.cor = FALSE, 
#R     ...) 
#R {
#R    z <- object
#R    p <- z$rank
#R    rdf <- z$df.residual
#R    ...
#R    Qr <- qr.lm(object) 
#R    ... 
#R    r <- z$residuals
#R    f <- z$fitted.values
#R    w <- z$weights
#R    if (is.null(w)) {
#R         mss <- if (attr(z$terms, "intercept")) 
#R             sum((f - mean(f))^2)
#R         else sum(f^2)
#R         rss <- sum(r^2)
#R    }
#R    ...
#R    resvar <- rss/rdf
#R    ...
#R    R <- chol2inv(Qr$qr[p1, p1, drop = FALSE])
#R    se <- sqrt(diag(R) * resvar)
#R    ...

(β0,β1)σ^2(β0,β1,σ)σn/(n3+1)

set.seed(1)
n = 4 # very small sample size !
b0 <- 5
b1 <- 2
sigma <- 5
x <- runif(n, 1, 100)
y =  b0 + b1*x + rnorm(n, 0, sigma) 

negLL <- function(beta, y, x) {
  b0 <- beta[1]
  b1 <- beta[2]
  sigma <- beta[3]
  yhat <- b0 + b1*x
  return(-sum(dnorm(y, yhat, sigma, log = TRUE)))
}

res <- optim(c(0, 0, 1), negLL, y = y, x = x, hessian=TRUE)
estimates <- res$par     # Parameters estimates
(se <- sqrt(diag(solve(res$hessian))))
#R [1] 5.690 0.097 1.653
k <- 3
se * sqrt(n / (n-k+1))
#R [1] 8.047 0.137 2.338

หากต้องการรายละเอียดเพิ่มเติมตามคำขอของเรา11 r11852 ความเป็นไปได้ในการบันทึกคือ

l(β,σ)=n2log(2π)nlogσ12σ2(yXβ)(yXβ)

Xn

ββl(β,σ)=1σ2XX

σ

m <- lm(y ~ x)
X <- cbind(1, x)
sqrt(sum(resid(m)^2)/n       * diag(solve(crossprod(X))))
#R                     x 
#R 5.71058285 0.09732149
k <- 3
sqrt(sum(resid(m)^2)/(n-k+1) * diag(solve(crossprod(X))))
#R                   x 
#R 8.0759837 0.1376334 

เราสามารถทำเช่นเดียวกันกับการสลายตัว QR เป็นlmไม่

obj <- qr(X)
sqrt(sum(resid(m)^2)/(n-k+1) * diag(chol2inv(obj$qr)))
#R [1] 8.0759837 0.1376334

ดังนั้นเพื่อตอบ

ผมเข้าใจจากการอ่านของฉันบนเว็บที่เพิ่มประสิทธิภาพไม่ได้เป็นงานที่ง่าย แต่ผมสงสัยว่าถ้ามันจะเป็นไปได้ที่จะทำซ้ำในวิธีที่ง่ายประมาณการจากข้อผิดพลาดมาตรฐานในขณะที่ใช้glmoptim

จากนั้นคุณต้องขยายข้อผิดพลาดมาตรฐานในตัวอย่าง Gaussian ที่คุณใช้


1
+1 ฉันไม่ได้ 100% ที่คุณได้รับมันอย่างถูกต้อง แต่นี่เป็นไปในทิศทางที่ถูกต้องแน่นอน คุณช่วยอธิบายได้ไหมว่าทำไมถึงเป็นเช่นนั้น
usεr11852พูดว่า Reinstate Monic

ชัดเจนขึ้นแล้วหรือ
Benjamin Christoffersen

1
ใช่. คำตอบที่ดี! (ฉันโหวตขึ้นแล้ว)
usεr11852พูดว่า Reinstate Monic

1

ถ้าฉันเข้าใจดีการแก้ปัญหาก็ง่าย: optimเพิ่มโอกาสสูงสุดโดยการหารผลรวมของเศษเหลือสองn. สิ่งที่คุณต้องการคือการหารผลรวมของกำลังสองด้วยn-k+1. ดังนั้นเลิกทำการหารด้วยn และหารด้วย n-k+1: sqrt(4.717216^2*4/2) = 6.671151


1
ขอบคุณสำหรับการตอบกลับของคุณ. ฉันรู้ว่าคำถามของฉันยังไม่ชัดเจน (ตอนนี้ฉันได้แก้ไขแล้ว) ฉันไม่ต้องการที่จะทำให้เกิดการคำนวณที่เหลือมาตรฐานข้อผิดพลาด แต่ยังมีข้อผิดพลาดมาตรฐานพารามิเตอร์ ...
กิลส์

@Gilles ฉันไม่รู้วิธีสร้างข้อผิดพลาดมาตรฐาน ความแตกต่างเป็นเพราะ: 1. glm ใช้เมทริกซ์ข้อมูลฟิชเชอร์ในขณะที่ hessian ปรับให้เหมาะสมและ 2 glm พิจารณาปัญหานี้เป็นพารามิเตอร์ 2 ตัว (ค้นหา b0 และ b1) ในขณะที่ปรับแก้ปัญหาพารามิเตอร์ 3 (b0, b1 และ sigma2) . ฉันไม่แน่ใจว่าสามารถแยกความแตกต่างเหล่านี้ได้หรือไม่
papgeo
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.