ฉันพยายามที่จะเข้าใจตรรกะที่อยู่เบื้องหลังการทดสอบ ANOVA F ในการวิเคราะห์การถดถอยเชิงเส้นอย่างง่าย คำถามที่ฉันมีดังต่อไปนี้ เมื่อค่า F คือ
MSR/MSE
มีขนาดใหญ่เรายอมรับแบบจำลองเป็นสำคัญ เหตุผลเบื้องหลังนี้คืออะไร?
ฉันพยายามที่จะเข้าใจตรรกะที่อยู่เบื้องหลังการทดสอบ ANOVA F ในการวิเคราะห์การถดถอยเชิงเส้นอย่างง่าย คำถามที่ฉันมีดังต่อไปนี้ เมื่อค่า F คือ
MSR/MSE
มีขนาดใหญ่เรายอมรับแบบจำลองเป็นสำคัญ เหตุผลเบื้องหลังนี้คืออะไร?
คำตอบ:
ในกรณีที่ง่ายที่สุดเมื่อคุณมีตัวทำนายเพียงตัวเดียว (การถดถอยอย่างง่าย) พูดการทดสอบจะบอกคุณว่าการรวมอธิบายถึงส่วนใหญ่ของความแปรปรวนที่สังเกตเห็นในเมื่อเทียบกับตัวแบบ null (สกัดกั้นเท่านั้น) . แนวคิดนี้คือการทดสอบว่าความแปรปรวนที่อธิบายเพิ่ม (ความแปรปรวนทั้งหมด, TSS, ลบความแปรปรวนที่เหลือ, RSS) มีขนาดใหญ่พอที่จะถือว่าเป็น "ปริมาณที่มีนัยสำคัญ" หรือไม่ เราอยู่ที่นี่เปรียบเทียบแบบจำลองที่มีตัวทำนายหนึ่งตัวหรือตัวแปรอธิบายกับพื้นฐานซึ่งเป็นเพียง "เสียง" (ไม่มีอะไรยกเว้นค่าเฉลี่ยที่ยิ่งใหญ่)
ในทำนองเดียวกันคุณสามารถคำนวณสถิติในการตั้งค่าการถดถอยหลายครั้ง: ในกรณีนี้มันเป็นการทดสอบตัวทำนายทั้งหมดที่รวมอยู่ในแบบจำลองซึ่งภายใต้กรอบ HT หมายความว่าเราสงสัยว่ามีใครในการทำนายการตอบสนองหรือไม่ ตัวแปร. นี่คือเหตุผลที่คุณอาจพบสถานการณ์ที่การทดสอบFสำหรับแบบจำลองทั้งหมดมีความสำคัญในขณะที่การทดสอบtหรือz บางตัวที่เกี่ยวข้องกับสัมประสิทธิ์การถดถอยแต่ละตัวไม่ได้
สถิติดูเหมือน
โดยที่คือจำนวนพารามิเตอร์โมเดลและnจำนวนการสังเกต ปริมาณนี้ควรถูกอ้างถึงการแจกแจงF p - 1 , n - pสำหรับค่าวิกฤตหรือค่าp มันใช้สำหรับแบบจำลองการถดถอยอย่างง่ายเช่นกันและเห็นได้ชัดว่ามีความคล้ายคลึงกับกรอบ ANOVA แบบดั้งเดิม
sidenote เมื่อคุณมีตัวทำนายมากกว่าหนึ่งตัวคุณอาจสงสัยว่าการพิจารณาเพียงชุดย่อยของตัวทำนายเหล่านั้น "ลด" คุณภาพของแบบจำลองที่เหมาะสม สอดคล้องกับสถานการณ์นี้ที่เราพิจารณารุ่นที่ซ้อนกัน นี่เป็นสถานการณ์เดียวกันกับสถานการณ์ข้างต้นซึ่งเราเปรียบเทียบแบบจำลองการถดถอยที่ได้รับกับตัวแบบโมฆะ เพื่อประเมินการลดลงของความแปรปรวนที่อธิบายไว้เราสามารถเปรียบเทียบผลรวมที่เหลือของกำลังสอง (RSS) จากทั้งสองรุ่น (นั่นคือสิ่งที่เหลือไว้โดยไม่ได้อธิบายเมื่อคุณอธิบายถึงผลกระทบของตัวทำนายที่อยู่ในรูปแบบ) ให้และM 1แทนโมเดลพื้นฐาน (ด้วยpพารามิเตอร์) และโมเดลที่มีตัวทำนายเพิ่มเติม ( พารามิเตอร์) ดังนั้นถ้าRSS M 1 - RSS M 0มีขนาดเล็กเราจะพิจารณาว่าโมเดลที่มีขนาดเล็กกว่านั้นทำงานได้ดีเท่ากับขนาดที่ใหญ่กว่า สถิติที่ดีที่จะใช้อัตราส่วนของ SS, ( RSS M 1 - RSS M 0 ) / RSS M 0 , ถ่วงน้ำหนักด้วยองศาอิสระ ( p - qสำหรับตัวเศษและn - pสำหรับตัวหาร) ดังที่ได้กล่าวไปแล้วมันสามารถแสดงให้เห็นว่าปริมาณนี้ตามการกระจายแบบ (หรือ Fisher-Snedecor) ที่มีp - qและองศาอิสระn - p หากF ที่สังเกตเห็นนั้นมีขนาดใหญ่กว่าควอนตัมF ที่สอดคล้องกันที่αที่กำหนด(โดยทั่วไปแล้วα = 0.05 ) จากนั้นเราจะสรุปได้ว่าโมเดลที่มีขนาดใหญ่กว่านี้จะทำให้ (นี่ไม่ได้หมายความว่าแบบจำลองนั้นถูกต้องจากมุมมองที่ใช้งานได้จริง!)
ข้อสรุปทั่วไปของแนวคิดดังกล่าวคือการทดสอบอัตราส่วนความน่าจะเป็น
หากคุณใช้ R คุณสามารถเล่นกับแนวคิดด้านบนดังนี้:
df <- transform(X <- as.data.frame(replicate(2, rnorm(100))),
y = V1+V2+rnorm(100))
## simple regression
anova(lm(y ~ V1, df)) # "ANOVA view"
summary(lm(y ~ V1, df)) # "Regression view"
## multiple regression
summary(lm0 <- lm(y ~ ., df))
lm1 <- update(lm0, . ~ . -V2) # reduced model
anova(lm1, lm0) # test of V2
anova()
ฟังก์ชันใน R ส่งคืนแถวแต่ละแถวสำหรับตัวทำนายแต่ละตัวในโมเดล ยกตัวอย่างเช่นanova(lm0)
ดังกล่าวข้างต้นจะส่งกลับแถวสำหรับV1
, V2
และResiduals
(และไม่ทั้งหมด) ด้วยเหตุนี้เราจึงได้สถิติ F * สองรุ่นสำหรับรุ่นนี้ สิ่งนี้เปลี่ยนแปลงการตีความของสถิติ F * ที่รายงานในตาราง ANOVA ได้อย่างไร
anova()
สำหรับการเปรียบเทียบ GLM เมื่อนำไปใช้กับวัตถุlm
หรือaov
มันจะแสดงผลกระทบ (SS) แยกต่างหากสำหรับแต่ละคำในรูปแบบและไม่แสดง TSS (ฉันเคยใช้วิธีนี้ในอีกวิธีหนึ่งคือหลังจากติดตั้ง ANOVA ด้วยaov()
ฉันสามารถใช้summary.lm()
เพื่อให้ได้แนวคิดการรักษาที่แตกต่างกัน) อย่างไรก็ตามมีปัญหาที่ละเอียดอ่อนระหว่างsummary.lm()
และsummary.aov()
โดยเฉพาะอย่างยิ่งที่เกี่ยวข้องกับการปรับตามลำดับ