ไม่


18

ฉันดูเหมือนจะสับสนตัวเองพยายามที่จะเข้าใจว่าค่า -squared ยังมีค่าrp

ตามที่ฉันเข้าใจแล้วความสัมพันธ์เชิงเส้นกับชุดของจุดข้อมูลสามารถมีค่าตั้งแต่ถึงและค่านี้ไม่ว่าจะเป็นอะไรก็ตามสามารถมีซึ่งแสดงว่าแตกต่างอย่างมีนัยสำคัญจาก (เช่น หากมีความสัมพันธ์เชิงเส้นตรงระหว่างตัวแปรทั้งสอง)r11pr0

ย้ายไปยังถดถอยเชิงเส้น, ฟังก์ชั่นสามารถติดตั้งได้กับข้อมูลที่อธิบายโดยสมการbX และ (การสกัดกั้นและความชัน) ยังมีค่าเพื่อแสดงว่าพวกเขาแตกต่างจากอย่างมีนัยสำคัญหรือไม่Y=a+bXabp0

สมมติว่าผมเพื่อให้ห่างไกลมีความเข้าใจที่ถูกต้องทุกอย่างเป็น -value สำหรับและ -value สำหรับเพียงสิ่งเดียวกันได้หรือไม่ แล้วมันเป็นที่ถูกต้องที่จะบอกว่ามันไม่ได้เป็น -squared ที่มี -value แต่หรือที่ไม่?prpbrprb

คำตอบ:


14

นอกจากความคิดเห็น (ถูกต้อง) มากมายโดยผู้ใช้คนอื่นชี้ให้เห็นว่าpสำหรับr2เหมือนกับpสำหรับการทดสอบทั่วโลกFโปรดทราบว่าคุณยังสามารถรับpเกี่ยวข้องกับr2 " โดยตรง "โดยใช้ข้อเท็จจริงที่ว่าr2ภายใต้สมมติฐานว่างถูกกระจายเป็นBeta(vn2,vd2)โดยที่vnและvdคือองศาความเป็นตัวเศษและตัวส่วนตามลำดับสำหรับFstatistic ที่เกี่ยวข้อง

สัญลักษณ์แสดงหัวข้อย่อยที่ 3 ในส่วนที่ได้มาจากส่วนย่อยอื่น ๆของรายการ Wikipedia เกี่ยวกับการแจกแจงแบบเบต้าบอกเราว่า:

หากXχ2(α)และYχ2(β)เป็นอิสระจากนั้นXX+YBeta(α2,β2) )

ทีนี้เราสามารถเขียนr2ในXนั้นได้XX+Yรูปแบบ X + Y

ให้SSYเป็นผลรวมของกำลังสองสำหรับตัวแปรY , SSEเป็นผลรวมของข้อผิดพลาดกำลังสองสำหรับการถดถอยของYในตัวแปรอื่น ๆ และSSRคือ "ผลรวมของกำลังสองลดลง" นั่นคือSSR=SSYSSE E จากนั้น และแน่นอนว่าผลบวกของกำลังสองSSRและSSEนั้นมีการแจกแจงเป็นχ2กับvnและvdองศาอิสระตามลำดับ ดังนั้น r2Beta(vn

r2=1SSESSY=SSYSSESSY=SSRSSR+SSE
SSRSSEχ2vnvd (แน่นอนฉันไม่ได้แสดงให้เห็นว่าทั้งสองไคสแควร์มีความเป็นอิสระบางทีผู้วิจารณ์อาจพูดอะไรเกี่ยวกับเรื่องนี้)
r2Beta(vn2,vd2)

การสาธิตใน R (รหัสยืมจาก @gung):

set.seed(111)
x = runif(20)
y = 5 + rnorm(20)
cor.test(x,y)

# Pearson's product-moment correlation
# 
# data:  x and y
# t = 1.151, df = 18, p-value = 0.2648
# alternative hypothesis: true correlation is not equal to 0
# 95 percent confidence interval:
#  -0.2043606  0.6312210
# sample estimates:
#       cor 
# 0.2618393 

summary(lm(y~x))

# Call:
#   lm(formula = y ~ x)
# 
# Residuals:
#     Min      1Q  Median      3Q     Max 
# -1.6399 -0.6246  0.1968  0.5168  2.0355 
# 
# Coefficients:
#             Estimate Std. Error t value Pr(>|t|)    
# (Intercept)   4.6077     0.4534  10.163 6.96e-09 ***
# x             1.1121     0.9662   1.151    0.265    
# ---
#   Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
# 
# Residual standard error: 1.061 on 18 degrees of freedom
# Multiple R-squared:  0.06856,  Adjusted R-squared:  0.01681 
# F-statistic: 1.325 on 1 and 18 DF,  p-value: 0.2648

1 - pbeta(0.06856, 1/2, 18/2)

# [1] 0.2647731

6

ฉันหวังว่าคำตอบที่สี่ (!) นี้จะช่วยชี้แจงสิ่งต่าง ๆ เพิ่มเติม

ในการถดถอยเชิงเส้นอย่างง่ายมีการทดสอบที่เทียบเท่าสามรายการ:

  1. t-test สำหรับความชันประชากรศูนย์ของ covariable X
  2. t-test สำหรับค่าสหสัมพันธ์ของประชากรศูนย์ระหว่างและการตอบสนองYXY
  3. F-ทดสอบสำหรับประชากรศูนย์ R-squared ไม่มีอะไรคือความแปรปรวนของสามารถอธิบายได้ด้วยความแตกต่างของXYX

การทดสอบทั้งสามรายการตรวจสอบความสัมพันธ์เชิงเส้นระหว่างและYและโชคดี (!) การทดสอบทั้งหมดนำไปสู่ผลลัพธ์เดียวกัน สถิติการทดสอบของพวกเขาเทียบเท่า (การทดสอบที่ 1 และ 2 ขึ้นอยู่กับการแจกแจงของนักเรียนด้วยn - 2 df ซึ่งสอดคล้องกับการสุ่มตัวอย่าง F- การกระจายตัวของการทดสอบ 3 เพียงแค่มีสถิติการทดสอบกำลังสอง)XYn2

ตัวอย่างรวดเร็วใน R:

# Input
set.seed(3)

n <- 100
X <- runif(n)
Y <- rnorm(n) + X

cor.test(~ X + Y) # For test 2 (correlation)

# Output (part)
# t = 3.1472, df = 98, p-value = 0.002184
# alternative hypothesis: true correlation is not equal to 0

# Input (for the other two tests)
fit <- lm(Y ~ X)
summary(fit)      

# Output (partial)
Coefficients:
            Estimate Std. Error t value Pr(>|t|)   
(Intercept) -0.03173    0.18214  -0.174  0.86204   
X            1.02051    0.32426   3.147  0.00218 **
---
Signif. codes:  0***0.001**0.01*0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 0.9239 on 98 degrees of freedom
Multiple R-squared:  0.09179,   Adjusted R-squared:  0.08253 
F-statistic: 9.905 on 1 and 98 DF,  p-value: 0.002184

อย่างที่คุณเห็นการทดสอบทั้งสามให้ค่า p เท่ากับ 0.00218 โปรดทราบว่าการทดสอบ 3 เป็นหนึ่งในบรรทัดสุดท้ายของการส่งออก

ดังนั้นการทดสอบ F ของคุณสำหรับ R-squared จึงเป็นสิ่งที่พบบ่อยมากแม้ว่านักสถิติไม่กี่คนจะตีความว่าเป็นการทดสอบสำหรับ R-squared


5

คุณดูเหมือนจะมีความเข้าใจที่ดีกับฉัน เราจะได้ค่าสำหรับr 2แต่เนื่องจากมันเป็นฟังก์ชั่น (ไม่สุ่ม) ของrดังนั้นp s จึงเหมือนกัน pr2rp


ฉันไม่คิดอย่างนั้น การเชื่อมต่อการอนุมานเกี่ยวกับและR 2จะอนุมานเกี่ยวกับαและβจาก OLS, ρเป็นสำคัญถ้าβไม่ใช่ศูนย์โดยไม่คำนึงถึงα อย่างไรก็ตามr 2มีความสำคัญหากαหรือβไม่เป็นศูนย์ สิ่งนี้จะช่วยให้เห็นภาพการทดสอบที่เกี่ยวข้องกำลังประเมิน ρr2αβρβαr2αβ
AdamO

1
@ AdamO ฉันไม่สามารถติดตามอาร์กิวเมนต์ในความคิดเห็นของคุณ คล้ายกับการโพสต์ไมเคิลเมเยอร์ด้านล่างใน R set.seed(111); x = runif(20); y = 5 + rnorm(20); cor.test(x,y); summary(lm(y~x))ลอง: พีสำหรับ r .265คือ พี B & สำหรับการทดสอบ F 6.96e-09ทั่วโลกเหมือนกันแม้ว่าพีสำหรับการเป็น
gung - Reinstate Monica

ตรงประเด็นของฉัน แตกต่างจากr 2และp-valueไม่เหมือนกัน r 2อาจเป็นฟังก์ชันของrแต่มันไม่ได้เป็นฟังก์ชันโมโนโทน r 2สามารถมีนัยสำคัญเมื่อrไม่เป็น อะไรR 2วัด? เป็นข้อผิดพลาดมาตรฐานที่เหลือหลังจากวาดเส้นแนวโน้ม OLS และการคำนวณส่วนที่เหลือ ในตัวอย่างของคุณความแปรปรวนที่เหลือจะน้อยกว่าความแปรปรวนY แบบไม่มีเงื่อนไขหรือไม่ อย่างแน่นอน r 2rr2pr2rr2rr2Yr2มีความสำคัญแล้ว คุณสามารถคำนวณลักษณะการดำเนินงานด้วย bootstrap และการเชื่อมต่อระหว่าง ANOVA และสี่เหลี่ยมจัตุรัสขั้นต่ำสุดยังช่วยส่องสว่างในเรื่องนี้
AdamO

4
คุณสามารถรับค่าเกี่ยวข้องกับr 2 "โดยตรง" โดยใช้ความจริงที่r 2ภายใต้สมมติฐานว่างถูกกระจายเป็นB e t a ( v npr2r2โดยที่vnและvdคือองศาความเป็นตัวเศษและตัวส่วนตามลำดับสำหรับF-statistic ที่เกี่ยวข้อง (ดูบัตรประจำตัวที่ 3 ที่นี่:en.wikipedia.org/wiki/....) ดังนั้นการใช้ @ ยินดีปรีดาของข้อมูลตัวอย่างเช่นถ้าในที่เราใส่ที่เราได้รับ Beta(vn2,vd2)vnvdFR1 - pbeta(0.06856, 1/2, 18/2)0.2647731
Jake Westfall

4
@ Adamo ฉันยังไม่เข้าใจ พวกเขาทั้งคู่.265พวกเขาไม่เหมือนกันอย่างไร
gung - Reinstate Monica

4

มีหลายวิธีในการสืบมาทดสอบทางสถิติสำหรับการทดสอบของความสัมพันธ์เพียร์สันเป็นρเพื่อให้ได้ค่าp-valueจะเป็นการเน้นว่าคุณต้องมีทั้งการทดสอบและการกระจายตัวอย่างของสถิติทดสอบภายใต้สมมติฐานว่าง ชื่อและคำถามของคุณดูเหมือนว่าจะมีความสับสนระหว่างความสัมพันธ์เพียร์สันและ "ความแปรปรวนอธิบาย" R 2 ฉันจะพิจารณาค่าสัมประสิทธิ์สหสัมพันธ์ก่อนρpr2

ไม่มีวิธี "ดีที่สุด" ในการทดสอบความสัมพันธ์ของ Pearson ที่ฉันทราบ การแปลง Zของฟิชเชอร์เป็นวิธีหนึ่งดังกล่าวโดยอิงจากการแปลงไฮเปอร์โบลิกเพื่อให้การอนุมานมีประสิทธิภาพมากขึ้นเล็กน้อย แน่นอนว่านี่เป็นวิธีที่ "ดี" แต่สิ่งที่น่าเศร้าก็คือการอนุมานสำหรับพารามิเตอร์นี้สอดคล้องกับการอนุมานเกี่ยวกับพารามิเตอร์ความชันสำหรับการเชื่อมโยง: พวกเขาบอกเล่าเรื่องราวเดียวกันในระยะยาวβ

The reason why statisticians have (classically) wholly preferred tests of β is because we do have a "best" test: linear regression, which is the BLUE estimator. In the days of modern statistics, we don't really care if a test is "best" any more, but linear regression has plenty of other fantastic properties that justify its continued usage for determining the association between two variables. In general, your intuition is right: they're essentially the same thing, and we focus our attention upon β as a more practical measure of association.

เป็นหน้าที่ของทั้งความลาดชันและสกัดกั้นได้ หากค่าใดค่าหนึ่งเหล่านี้ไม่ใช่ศูนย์ค่าr 2ควรมีการแจกแจงตัวอย่างที่สังเกตเห็นได้ซึ่งสัมพันธ์กับค่าที่คาดหวังหากพารามิเตอร์เชิงเส้นเป็นศูนย์ อย่างไรก็ตามการได้รับการแจกแจงของr 2ภายใต้ null และเปรียบเทียบกับr 2r2r2r2r2ภายใต้สมมติฐานทางเลือกบางข้อไม่ได้ให้ความมั่นใจแก่ฉันมากนักว่าการทดสอบนี้มีพลังมากพอที่จะตรวจจับสิ่งที่เราต้องการ เพียงแค่ความรู้สึกทางเดินอาหาร การเปลี่ยนเป็นตัวประมาณ "ดีที่สุด" อีกครั้ง OLS ให้การประมาณค่า "ดีที่สุด" แก่เราทั้งความชันและจุดตัดดังนั้นเราจึงมั่นใจว่าการทดสอบของเรานั้นดีอย่างน้อยสำหรับการพิจารณาความสัมพันธ์เดียวกัน (ถ้ามี) โดยการทดสอบพารามิเตอร์แบบจำลองโดยตรง . สำหรับฉันแล้วการทดสอบร่วมกับและOLกับ OLS นั้นเหนือกว่าการทดสอบใด ๆ เกี่ยวกับr 2ยกเว้นในกรณีที่หาได้ยาก (บางที) แอพพลิเคชั่นการสอบเทียบแบบจำลองการทำนายที่ไม่ซ้อนกัน ... แต่ BIC น่าจะเป็นตัวชี้วัดที่ดีกว่า อย่างไรก็ตาม.αβr2


1
"The r2 is a function of both the slope and the intercept." Maybe I'm missing something but... isn't it just a function of the slope? Maybe you could provide a concrete demonstration?
Jake Westfall

Sure. Recall that if observed data perfectly correspond with the trendline, then r2=1 exactly. Consider "flat response" data with no variability but a non-zero intercept, so all tuples take the form (xi,β0) for all i{1,2,n}. r2=1 as alluded to. The coefficient of determination serves as a reasonable summary of predictive ability for a linear equation, and obtaining those predictions requires both a slope and an intercept.
AdamO

1

This isn't quite how I would interpret things. I don't think I'd ever calculate a p-value for r or r2. r and r2 are qualitative measures of a model, not measures that we're comparing to a distribution, so a p-value doesn't really make sense.

Getting a p-value for b makes a lot of sense - that's what tells you whether the model has a linear relationship or not. If b is statistically significantly different from 0 then you conclude that there is a linear relationship between the variables. The r or r2 then tells you how well the model explains the variation in the data. If r2 is low, then your independent variable isn't helping to explain very much about the dependent variable.

A p-value for a tells us if the intercept is statistically significantly different from 0 or not. This is of varying usefulness, depending on the data. My favorite example: if you do a linear regression between gestation time and birth weight you might find an intercept of, say, 8 ounces that is statistically different from 0. However, since the intercept represents a gestation age of 0 weeks, it doesn't really mean anything.

If anyone does regularly calculate p-values for an r2 I'd be interested in hearing about them.


4
Take a closer look at the output of your favorite regression command: it should report an F statistic and a p-value for it. That is also the p-value for the R2, because F and R2 are directly and monotonically related. For ordinary regression with n data, F=(n2)R2/(1R2). Its p-value will be the p-value for the slope. Therefore if you have ever used a p-value for b in ordinary regression, you have used a p-value for R2.
whuber

In practice it seems like people do not think in terms of the significance of r or r^2. What might be more useful is a confidence interval around them.
N Brouwer
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.