สูตรที่แน่นอนที่ใช้ใน R lm()
สำหรับการปรับ R-squared คืออะไร? ฉันจะตีความมันได้อย่างไร
ปรับสูตร r-squared
ดูเหมือนจะมีสูตรอยู่หลายสูตรในการคำนวณการปรับ R-squared
- สูตรของ Wherry:
- สูตรของ McNemar:
- สูตรของลอร์ด:
- สูตรของสไตน์:
คำอธิบายหนังสือ
- ตามตำราของ Field การค้นพบสถิติโดยใช้ R (2012, p. 273) R ใช้สมการของ Wherry ซึ่ง "บอกเราว่าความแปรปรวนใน Y จะเป็นสัดส่วนเท่าใดหากแบบจำลองมาจากประชากรที่นำตัวอย่างมาแล้ว" เขาไม่ได้ให้สูตรสำหรับ Wherry เขาแนะนำให้ใช้สูตรของสไตน์ (ด้วยมือ) เพื่อตรวจสอบว่ารูปแบบการตรวจสอบไขว้กันดีเพียงใด
- Kleiber / Zeileis, Econometrics ประยุกต์ที่มี R (2008, p. 59) อ้างว่าเป็น "การปรับ R-squared ของ Theil" และไม่ได้บอกว่าการตีความของมันแตกต่างกันอย่างไรจาก R-squared ที่หลากหลาย
- Dalgaard, สถิติเบื้องต้นด้วย R (2008, p. 113) เขียนว่า "ถ้าคุณคูณ [ปรับ R-squared] 100% มันจะตีความได้ว่า '% การลดความแปรปรวน' ' เขาไม่ได้บอกว่าสูตรนี้สอดคล้องกับอะไร
ก่อนหน้านี้ฉันเคยคิดและอ่านอย่างกว้างขวางว่า R-squared ลงโทษสำหรับการเพิ่มตัวแปรเพิ่มเติมให้กับโมเดล ทีนี้การใช้สูตรที่แตกต่างกันเหล่านี้ดูเหมือนจะเป็นการตีความที่แตกต่างกัน ฉันยังมองไปที่คำถามที่เกี่ยวข้องในกองมากเกิน ( คืออะไรแตกต่างระหว่างหลาย R-squared และ Adjusted R-squared ในครั้งเดียวตัวแปรน้อยถดถอยสี่เหลี่ยม? ) และโรงเรียนวอร์ตันพจนานุกรมสถิติที่ UPENN
คำถาม
- ซึ่งสูตรที่ใช้สำหรับการปรับ R-ตารางโดย R
lm()
? - ฉันจะตีความมันได้อย่างไร
ans$adj.r.squared <- 1 - (1 - ans$r.squared) * ((n - df.int)/rdf)
โดยที่ ans $ r.squared = R ^ 2; n = n, rdf = df ที่เหลือ, df.int = สกัดกั้น df (0 หรือ 1)