ฉันคิดว่ามันเป็นความแตกต่างของการทดสอบที่คำนวณ car::Anova
ใช้การทดสอบ Wald ในขณะที่drop1
refits โมเดลวางคำศัพท์เดียว จอห์นฟ็อกซ์เคยเขียนถึงฉันว่าการทดสอบและแบบทดสอบ Wald จากแบบจำลองที่ผ่านการทดสอบโดยใช้การทดสอบอัตราส่วนความน่าจะเป็น (เช่นกลยุทธ์จากdrop1
) เห็นด้วยกับโมเดลเชิงเส้น แต่ไม่จำเป็นต้องเป็นแบบจำลองเชิงเส้น น่าเสียดายที่จดหมายฉบับนี้เป็นรายการที่ไม่เหมาะสมและไม่มีการอ้างอิงใด ๆ แต่ฉันรู้ว่าหนังสือของเขามีบททดสอบ Wald ซึ่งอาจมีข้อมูลที่ต้องการ
ความช่วยเหลือที่จะcar::Anova
พูดว่า:
การทดสอบประเภทที่สองนั้นคำนวณตามหลักการของความเป็นชายขอบการทดสอบแต่ละเทอมหลังจากอื่น ๆ ทั้งหมดยกเว้นการละเว้นลำดับที่สูงกว่าของคำนั้น การทดสอบประเภทที่สามที่เรียกว่าเป็นการละเมิดขอบเขตการทดสอบแต่ละเทอมในโมเดลหลังจากที่อื่น ๆ ทั้งหมด คำจำกัดความของการทดสอบ Type-II นี้สอดคล้องกับการทดสอบที่ผลิตโดย SAS สำหรับแบบจำลองการวิเคราะห์ความแปรปรวนซึ่งตัวทำนายทั้งหมดเป็นปัจจัย แต่ไม่มากกว่าโดยทั่วไป (เช่นเมื่อมีตัวทำนายเชิงปริมาณ) ใช้ความระมัดระวังในการจัดทำแบบจำลองสำหรับการทดสอบ Type-III มิฉะนั้นการทดสอบสมมติฐานจะไม่สมเหตุสมผล
น่าเสียดายที่ฉันไม่สามารถตอบคำถามที่สองหรือสามได้เพราะฉันอยากรู้เช่นกัน
อัปเดตความคิดเห็นการตอบกลับ :
ไม่มีการทดสอบ Wald, LR และ F สำหรับโมเดลผสมทั่วไป Anova
เพียงแค่อนุญาต"chisq"
และ"F"
ทดสอบสำหรับโมเดลผสม (เช่น"mer"
วัตถุที่ส่งคืนโดยlmer
) ส่วนการใช้งานบอกว่า:
## S3 method for class 'mer'
Anova(mod, type=c("II","III", 2, 3),
test.statistic=c("chisq", "F"), vcov.=vcov(mod), singular.ok, ...)
แต่เนื่องจากการทดสอบแบบ F สำหรับmer
วัตถุถูกคำนวณโดยpbkrtest
ซึ่งความรู้ของฉันใช้ได้เฉพาะกับตัวแบบผสมแบบเชิงเส้นเท่านั้นAnova
สำหรับ GLMMs ควรกลับมาเสมอchisq
(ด้วยเหตุนี้คุณจึงไม่เห็นความแตกต่าง)
อัปเดตเกี่ยวกับคำถาม:
คำตอบก่อนหน้าของฉันเพียงแค่พยายามที่จะตอบคำถามหลักของความแตกต่างระหว่างและAnova()
drop1()
แต่ตอนนี้ฉันเข้าใจว่าคุณต้องการทดสอบว่าผลกระทบคงที่แน่นอนมีความสำคัญหรือไม่ R-sig ผสมการสร้างแบบจำลองคำถามที่พบบ่อยกล่าวว่าต่อไปนี้เกี่ยวกับเรื่องนี้:
การทดสอบพารามิเตอร์เดียว
จากที่เลวร้ายที่สุดถึงดีที่สุด:
- การทดสอบ Wald Z
- สำหรับ LMM ที่สมดุลและซ้อนกันซึ่งสามารถคำนวณ df ได้: การทดสอบ t-Wald
- การทดสอบอัตราส่วนความน่าจะเป็นโดยการตั้งค่าแบบจำลองเพื่อให้สามารถแยก / ลดพารามิเตอร์ (ผ่าน anova หรือ drop1) หรือผ่านโปรไฟล์ความน่าจะเป็นในการคำนวณ
- MCMC หรือพารามิเตอร์ bootstrap ช่วงความเชื่อมั่น
การทดสอบผลกระทบ (เช่นการทดสอบว่าพารามิเตอร์หลายตัวเป็นศูนย์พร้อมกัน)
จากที่เลวร้ายที่สุดถึงดีที่สุด:
- การทดสอบ Wald chi-square (เช่นรถยนต์ :: Anova)
- การทดสอบอัตราส่วนความน่าจะเป็น (ผ่าน anova หรือ drop1)
- สำหรับ LMM ที่สมดุลซ้อนกันซึ่งสามารถคำนวณ df ได้: การทดสอบ F ตามเงื่อนไข
- สำหรับ LMMs: การทดสอบ F ตามเงื่อนไขพร้อมการแก้ไข df (เช่น Kenward-Roger ในแพ็คเกจ pbkrtest)
- MCMC หรือพารามิเตอร์หรือพารามิเตอร์เปรียบเทียบ bootstrap (bootstrapping nonparametric จะต้องดำเนินการอย่างรอบคอบเพื่อบัญชีสำหรับปัจจัยการจัดกลุ่ม)
(เน้นเพิ่ม)
นี่เป็นการบ่งชี้ว่าcar::Anova()
โดยทั่วไปแล้วไม่แนะนำให้ใช้วิธีการของคุณสำหรับ GLMM แต่ควรใช้วิธีการที่ใช้ MCMC หรือ bootstrap ฉันไม่รู้ว่าpvals.fnc
จากlanguageR
แพ็คเกจบรรจุด้วย GLMM หรือไม่ แต่มันก็คุ้มค่าที่จะลอง