ทำความเข้าใจเกี่ยวกับการถดถอยโลจิสติกและความน่าจะเป็น


12

การประมาณค่าพารามิเตอร์ / การฝึกอบรมการถดถอยโลจิสติกทำงานอย่างไร ฉันจะพยายามใส่สิ่งที่ฉันได้รับจนถึง

  1. เอาต์พุตคือ y เอาต์พุตของฟังก์ชันลอจิสติกในรูปแบบของความน่าจะเป็นขึ้นอยู่กับค่าของ x:
    P(y=1|x)=11+eωTxσ(ωTx)
    P(y=0|x)=1P(y=1|x)=111+eωTx
  2. สำหรับหนึ่งมิติ Odds ที่เรียกว่าถูกกำหนดดังนี้:
    p(y=1|x)1p(y=1|x)=p(y=1|x)p(y=0|x)=eω0+ω1x
  3. ตอนนี้เพิ่มlogฟังก์ชันเพื่อรับ W_0 และ W_1 ในรูปแบบเชิงเส้น:
    Logit(y)=log(p(y=1|x)1p(y=1|x))=ω0+ω1x
  4. ตอนนี้ถึงส่วนของปัญหา การใช้ความน่าจะเป็น (X ใหญ่คือ y)
    L(X|P)=i=1,yi=1NP(xi)i=1,yi=0N(1P(xi))
    มีใครบอกได้ไหมว่าทำไมเราถึงพิจารณาความน่าจะเป็นของ y = 1 สองครั้ง ตั้งแต่:
    P(y=0|x)=1P(y=1|x)

และวิธีรับค่าของωจากมัน

คำตอบ:


10

โดยทั่วไปถือว่าคุณตัดสินใจใช้แบบจำลองของแบบฟอร์ม

P(y=1|X=x)=h(x;Θ)

สำหรับบางพารามิเตอร์Θจากนั้นคุณก็เขียนความน่าจะเป็นของมันคือΘ

L(Θ)=i{1,...,N},yi=1P(y=1|x=x;Θ)i{1,...,N},yi=0P(y=0|x=x;Θ)

ซึ่งเหมือนกับ

L(Θ)=i{1,...,N},yi=1P(y=1|x=x;Θ)i{1,...,N},yi=0(1P(y=1|x=x;Θ))

ตอนนี้คุณได้ตัดสินใจ 'สันนิษฐาน' (แบบจำลอง)

P(y=1|X=x)=σ(Θ0+Θ1x)

σ(z)=1/(1+ez)

argmaxΘL(Θ)

บางครั้งคนพูดว่าเมื่อพวกเขากำลังถดถอยโลจิสติกพวกเขาไม่ได้เพิ่มโอกาส (ตามที่เรา / คุณทำข้างต้น) แต่พวกเขาลดฟังก์ชั่นการสูญเสีย

l(Θ)=i=1Nyilog(P(Yi=1|X=x;Θ))+(1yi)log(P(Yi=0|X=x;Θ))

log(L(Θ))=l(Θ)

P


L(θ)yi=1ω1ω0

Σf(x)=x2x=3fff=2xx=0มันชี้ไปทางขวาและถ้าเราเหลือมันจะชี้ไปทางซ้าย ในทางคณิตศาสตร์คะแนนอนุพันธ์ไปในทิศทางของ 'แข็งแกร่งขึ้น'
Fabian Werner

x0fxx1x1=x0+f(x0)f(x1)xx2=x1+f(x1)L(Θ)L(ω)ωL

y=1ωωy=1y=1 y=0
เฟเบียนเวอร์เนอร์

8

,yi=1,yi=0

ωω


yi=0ω

i=1,y=1Ni=1Ny=1

มีอัลกอริทึมที่เป็นไปได้มากมายสำหรับการเพิ่มฟังก์ชั่นโอกาส วิธีที่พบมากที่สุดคือวิธีของนิวตัน - ราฟสันซึ่งเกี่ยวข้องกับการคำนวณอนุพันธ์อันดับหนึ่งและสอง
Maarten Buis
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.