ใช่เมทริกซ์ความแปรปรวนร่วมของตัวแปรทั้งหมด - คำอธิบายและการตอบกลับ - มีข้อมูลที่จำเป็นในการค้นหาค่าสัมประสิทธิ์ทั้งหมดโดยมีคำว่าการสกัดกั้น (ค่าคงที่) รวมอยู่ในแบบจำลอง (แม้ว่าพันธมิตรจะไม่ให้ข้อมูลเกี่ยวกับคำที่คงที่ แต่ก็สามารถพบได้จากวิธีการของข้อมูล)
การวิเคราะห์
ขอให้ข้อมูลสำหรับการอธิบายตัวแปรได้รับการจัดเป็นเวกเตอร์คอลัมน์มิติx 1 , x 2 , ... , x Pและตัวแปรการตอบสนองเป็นคอลัมน์เวกเตอร์Y , ถือว่าเป็นสำนึกของตัวแปรสุ่มY สามัญไม่น้อยกว่าประมาณการสี่เหลี่ยมเบต้าของสัมประสิทธิ์ในรูปแบบnx1, x2, … , xพีYYβ^
E (Y) = α + Xβ
ได้มาจากการประกอบคอลัมน์เวกเตอร์X 0 = ( 1 , 1 , … , 1 ) ′ , X 1 , … , X pให้เป็นn × p + 1อาร์เรย์Xและแก้ระบบสมการเชิงเส้นp + 1X0= ( 1 , 1 , … , 1 )',X1,…,Xpn×p+1X
X′Xβ^=X′y.
มันเทียบเท่ากับระบบ
1nX′Xβ^=1nX′y.
การกำจัดแบบเกาส์เซียนจะแก้ปัญหาระบบนี้ได้ มันดำเนินการโดยติดกับเมทริกซ์1p+1×p+1และp+1-vector11nX′Xp+1เป็นP+1×P+2อาร์เรย์และแถวลด 1nX′yp+1×p+2A
ขั้นตอนแรกจะตรวจสอบ1 การหาค่านี้ไม่ใช่ศูนย์จะดำเนินการลบทวีคูณที่เหมาะสมของแถวแรกของAจากแถวที่เหลือเพื่อทำให้รายการที่เหลืออยู่ในคอลัมน์แรกเป็นศูนย์ ทวีคูณเหล่านี้จะเป็น11n(X′X)11=1nX′0X0=1Aและจำนวนลบออกจากรายการฉัน+1,J+1=X ' ฉัน Xเจจะเท่ากับ ¯ Xฉัน ¯ Xเจ นี่เป็นเพียงสูตรสำหรับความแปรปรวนของXฉันและXเจ ยิ่งกว่านั้นจำนวนที่เหลือในตำแหน่งi+1,p+2เท่ากับ11nX′0Xi=X¯¯¯¯iAi+1,j+1=X′iXjX¯¯¯¯iX¯¯¯¯jXiXji+1,p+2แปรปรวนของXฉันกับY1nX′iy−Xi¯¯¯¯¯¯y¯¯¯Xiy
ดังนั้นหลังจากขั้นตอนแรกของการกำจัดแบบเกาส์เซียนแล้วระบบจะลดลงไปสู่การแก้ปัญหา
Cβ^=(Cov(Xi,y))′
และชัดเจน - เนื่องจากสัมประสิทธิ์ทั้งหมดเป็นความแปรปรวนร่วม - วิธีการแก้ปัญหานั้นสามารถพบได้จากเมทริกซ์ความแปรปรวนร่วมของตัวแปรทั้งหมด
(เมื่อย้อนกลับได้คำตอบสามารถเขียนC - 1 ( Cov ( X i , y ) ) ′สูตรที่ให้ในคำถามเป็นกรณีพิเศษของสิ่งนี้เมื่อp = 1และp = 2การเขียนสูตรดังกล่าวอย่างชัดเจนจะ มีความซับซ้อนมากขึ้นเรื่อย ๆ เมื่อpโตขึ้นนอกจากนี้พวกมันด้อยกว่าสำหรับการคำนวณเชิงตัวเลขซึ่งดำเนินการได้ดีที่สุดโดยการแก้ระบบสมการแทนที่จะแก้ไขเมทริกซ์C )CC−1(Cov(Xi,y))′p=1p=2pC
ระยะอย่างต่อเนื่องจะมีความแตกต่างระหว่างค่าเฉลี่ยของและค่าเฉลี่ยที่คาดการณ์จากตัวเลขประมาณการที่ X βyXβ^
ตัวอย่าง
เพื่อแสดงให้เห็นว่าR
รหัสต่อไปนี้สร้างข้อมูลบางส่วนคำนวณความแปรปรวนร่วมของพวกเขาและได้รับการประมาณค่าสัมประสิทธิ์กำลังสองน้อยที่สุดจากข้อมูลนั้น lm
ก็จะเปรียบเทียบพวกเขาประมาณการที่ได้รับจากน้อยสี่เหลี่ยม-ประมาณการ
#
# 1. Generate some data.
#
n <- 10 # Data set size
p <- 2 # Number of regressors
set.seed(17)
z <- matrix(rnorm(n*(p+1)), nrow=n, dimnames=list(NULL, paste0("x", 1:(p+1))))
y <- z[, p+1]
x <- z[, -(p+1), drop=FALSE];
#
# 2. Find the OLS coefficients from the covariances only.
#
a <- cov(x)
b <- cov(x,y)
beta.hat <- solve(a, b)[, 1] # Coefficients from the covariance matrix
#
# 2a. Find the intercept from the means and coefficients.
#
y.bar <- mean(y)
x.bar <- colMeans(x)
intercept <- y.bar - x.bar %*% beta.hat
ผลลัพธ์แสดงข้อตกลงระหว่างสองวิธี:
(rbind(`From covariances` = c(`(Intercept)`=intercept, beta.hat),
`From data via OLS` = coef(lm(y ~ x))))
(Intercept) x1 x2
From covariances 0.946155 -0.424551 -1.006675
From data via OLS 0.946155 -0.424551 -1.006675