ค่าสัมประสิทธิ์เชิงลบในการถดถอยโลจิสติกสั่ง


17

สมมติว่าเรามีการตอบสนองลำดับy:{Bad, Neutral, Good}{1,2,3}และชุดของตัวแปรX:=[x1,x2,x3]ที่เราคิดว่าจะอธิบายYจากนั้นเราจะทำการถดถอยโลจิสติกสั่งของ (เมทริกซ์การออกแบบ) ใน (การตอบสนอง)yXy

สมมติว่าค่าสัมประสิทธิ์ประมาณx1เรียกว่าเบต้า 1ในสั่งการถดถอยโลจิสติกคือ- 0.5 ฉันจะตีความอัตราเดิมพัน (OR) ของe - 0.5 = 0.607 ได้อย่างไรβ^10.5e0.5=0.607

ฉันพูดว่า "สำหรับการเพิ่มขึ้น 1 หน่วยในx1 , ceteris paribus ต่อรองในการสังเกตGoodเป็นครั้งต่อรองในการสังเกตและเปลี่ยนแปลงเดียวกันในที่ โอกาสของการสังเกต\ text {เป็นกลาง} \ cup \ text {ดี}คือ0.607เท่าของการสังเกต\ text {Bad} "0.607BadNeutralx1NeutralGood0.607Bad

ฉันไม่พบตัวอย่างของการตีความสัมประสิทธิ์เชิงลบในหนังสือเรียนหรือ Google


2
ใช่ถูกต้องแล้ว มันเกือบจะเหมือนกับว่าคุณตีความสัมประสิทธิ์เชิงบวก
Peter Flom - Reinstate Monica

2
หมายเหตุ: เรามักจะพูดว่า "ถอยหลังบนX " ไม่ใช่วิธีอื่น yX
gung - Reinstate Monica

คำตอบ:


25

คุณกำลังติดตามถูกต้อง แต่มักจะดูเอกสารของซอฟต์แวร์ที่คุณใช้เพื่อดูว่าแบบจำลองใดเหมาะสม สมมติสถานการณ์ที่มีความเด็ดขาดตัวแปรตามกับหมวดหมู่สั่งซื้อ1 , ... , กรัม, ... , kและทำนายX 1 , ... , X J , ... , XพีY1,,g,,kX1,,Xj,,Xp

"ในธรรมชาติ" คุณสามารถพบกับสามตัวเลือกที่เทียบเท่ากันสำหรับการเขียนแบบจำลองสัดส่วนการต่อรองเชิงทฤษฎีที่มีความหมายพารามิเตอร์โดยนัยแตกต่างกัน:

  1. logit(p(Yg))=lnp(Yg)p(Y>g)=β0g+β1X1++βpXp(g=1,,k1)
  2. logit(p(Yg))=lnp(Yg)p(Y>g)=β0g(β1X1++βpXp)(g=1,,k1)
  3. logit(p(Yg))=lnp(Yg)p(Y<g)=β0g+β1X1++βpXp(g=2,,k)

(รุ่นที่ 1 และ 2 มีข้อ จำกัด ที่ว่าในแยกต่างหากถดถอยโลจิสติกไบนารีที่β เจไม่แตกต่างกันกับกรัมและβ 0 1 < ... < β 0 กรัม < ... < β 0 k - 1รุ่น 3 มี ข้อ จำกัด เดียวกันเกี่ยวกับβ jและต้องการβ 0 2 > > β 0 g > > β 0 k )k1βjgβ01<<β0g<<β0k1βjβ02>>β0g>>β0k

  • ในรูปแบบที่ 1 เป็นบวกหมายความว่าการเพิ่มขึ้นของการทำนายX เจมีความเกี่ยวข้องกับการต่อรองเพิ่มขึ้นสำหรับต่ำกว่าประเภทในYβjXjY
  • แบบที่ 1 นั้นค่อนข้างใช้งานง่ายดังนั้นแบบที่ 2 หรือ 3 จึงเป็นที่ต้องการในซอฟต์แวร์ นี่เป็นบวกหมายความว่าการเพิ่มขึ้นของการทำนายX เจมีความเกี่ยวข้องกับการต่อรองเพิ่มขึ้นสำหรับสูงประเภทในYβjXjY
  • รุ่นที่ 1 และ 2 นำไปสู่การประมาณการเหมือนกันสำหรับแต่ประมาณการของพวกเขาสำหรับβ เจมีสัญญาณตรงข้ามβ0gβj
  • Models 2 and 3 lead to the same estimates for the βj, but their estimates for the β0g have opposite signs.

Assuming your software uses model 2 or 3, you can say "with a 1 unit increase in X1, ceteris paribus, the predicted odds of observing 'Y=Good' vs. observing 'Y=Neutral OR Bad' change by a factor of eβ^1=0.607.", and likewise "with a 1 unit increase in X1, ceteris paribus, the predicted odds of observing 'Y=Good OR Neutral' vs. observing 'Y=Bad' change by a factor of eβ^1=0.607." Note that in the empirical case, we only have the predicted odds, not the actual ones.

Here are some additional illustrations for model 1 with k=4 categories. First, the assumption of a linear model for the cumulative logits with proportional odds. Second, the implied probabilities of observing at most category g. The probabilities follow logistic functions with the same shape. enter image description here

For the category probabilities themselves, the depicted model implies the following ordered functions: enter image description here

P.S. To my knowledge, model 2 is used in SPSS as well as in R functions MASS::polr() and ordinal::clm(). Model 3 is used in R functions rms::lrm() and VGAM::vglm(). Unfortunately, I don't know about SAS and Stata.


@Harokitty The binary logistic regression model has no error term like the linear regression model. Note that we're modeling a probability, not the dependent variable itself. The assumption about an error distribution for Y has to be specified separately, e.g., in R with glm(..., family=binomial).
caracal

Do you have a reference that deals with the way of expressing specification #2 in your list of 3 alternatives?

1
@Harokitty It's briefly described in Agresti's "Analysis of Ordinal Categorical Data", section 3.2.2, p49, equation 3.8. Alternatively in Agresti's "Categorical Data Analysis", section 9.4, p323, equation 9.12.
caracal

Hi, sorry to bother you, do you have a reference for the 3rd one? Agresti doesn't seem to talk about that.

2
@Jase Well, Agresti just uses logit(Y>g) in the section linked above. For logit(Yg), see Harrell's "Regression Modeling Strategies", section 13.3.1, p333, eqn 13.4.
caracal
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.