องศาอิสระในการทดสอบ Hosmer-Lemeshow


33

สถิติการทดสอบสำหรับการทดสอบHosmer-Lemeshow (HLT) สำหรับความดีของพอดี (GOF) ของแบบจำลองการถดถอยโลจิสติกถูกกำหนดดังนี้:

ตัวอย่างจะถูกแบ่งออกเป็น deciles, D_1, D_2, \ dots, D_ {d} , ต่อหนึ่ง decile คำนวณปริมาณต่อไปนี้:d=10D1,D2,,Dd

  • O1d=iDdyi , คือจำนวนที่สังเกตได้ของจำนวนคดีที่เป็นบวกใน decile Dd ;
  • O0d=iDd(1yi)คือจำนวนที่สังเกตได้จากจำนวนลบในช่วงDd ;
  • E1d=iDdπ^iคือจำนวนคดีโดยประมาณที่เป็นบวกในช่วงDd ;
  • E0d=iDd(1π^i)คือจำนวนผู้ติดลบโดยประมาณในช่วงDd ;

โดยที่yiคือผลลัพธ์ไบนารีที่สังเกตได้สำหรับการสังเกตi -th และπ^iความน่าจะเป็นโดยประมาณสำหรับการสังเกตนั้น

จากนั้นสถิติทดสอบจะถูกกำหนดเป็น:

X2=h=01g=1d((OhgEhg)2Ehg)=g=1d(O1gngπ^gng(1π^g)π^g)2,

โดยที่π^gคือความน่าจะเป็นโดยเฉลี่ยในช่วงทศวรรษgและให้ngเป็นจำนวน บริษัท ในช่วงทศวรรษ

ตามฮอสเมอร์-Lemeshow (ดูลิงค์นี้ ) สถิตินี้มี (ภายใต้สมมติฐานบางบริการ) χ2กระจายกับ(d2)องศาอิสระ

ในทางตรงกันข้ามถ้าฉันจะกำหนดตารางฉุกเฉินด้วยแถวd (ตรงกับ deciles) และ 2 คอลัมน์ (ตรงกับผลลัพธ์ไบนารีจริง / เท็จ) จากนั้นสถิติการทดสอบสำหรับการทดสอบχ2สำหรับตารางฉุกเฉินนี้ เช่นเดียวกับจะX2ที่กำหนดไว้ข้างต้น แต่ในกรณีของตารางฉุกเฉินที่สถิติการทดสอบนี้เป็นχ2กับ(d1)(21)=d1องศาอิสระ ดังนั้นเสรีภาพอีกระดับหนึ่ง !

เราจะอธิบายความแตกต่างนี้ในจำนวนองศาอิสระได้อย่างไร

แก้ไข: เพิ่มเติมหลังจากอ่านความคิดเห็น:

@whuber

พวกเขาพูดว่า (ดูHosmer DW, Lemeshow S. (1980), การทดสอบความเหมาะสมของแบบจำลองการถดถอยโลจิสติกหลายแบบการสื่อสารในสถิติ A10, 1043-1069 ) มีทฤษฎีที่แสดงให้เห็นโดย Moore และ Spruill มันเป็นไปตามนั้นหาก (1) พารามิเตอร์ถูกประเมินโดยใช้ฟังก์ชันความน่าจะเป็นสำหรับข้อมูลที่ไม่ได้จัดกลุ่มและ (2) ความถี่ในตาราง 2xg ขึ้นอยู่กับพารามิเตอร์โดยประมาณนั่นคือเซลล์จะสุ่มไม่คงที่ภายใต้เงื่อนไขปกติที่เหมาะสม ความดีของสถิติพอดีภายใต้ (1) และ (2) เป็นของศูนย์กลางไค - สแควร์ที่มีการลดลงขององศาอิสระตามปกติเนื่องจากพารามิเตอร์ที่ประมาณรวมกับตัวแปรไคสแควร์ถ่วงน้ำหนักรวม

จากนั้นถ้าฉันเข้าใจบทความของพวกเขาดีพวกเขาพยายามหาคำว่า 'การแก้ไข' ที่ว่าถ้าฉันเข้าใจได้ดีนี่คือผลรวมถ่วงน้ำหนักของตัวแปรสุ่มไคสแควร์และพวกเขาทำได้โดยการจำลอง แต่ฉัน ต้องยอมรับว่าฉันไม่เข้าใจสิ่งที่พวกเขาพูดที่นั่นดังนั้นคำถามของฉัน; เหตุใดเซลล์เหล่านี้จึงสุ่มมามีผลต่อองศาอิสระอย่างไร มันจะแตกต่างกันหรือไม่ถ้าฉันแก้ไขเส้นขอบของเซลล์และจากนั้นฉันจัดประเภทการสังเกตในเซลล์คงที่ตามคะแนนโดยประมาณในกรณีนั้นเซลล์จะไม่สุ่มแม้ว่า 'เนื้อหา' ของเซลล์จะเป็นอย่างไร

@ Frank Harell: เป็นไปไม่ได้หรือที่ 'ข้อบกพร่อง' ของการทดสอบ Hosmer-Lemeshow ที่คุณพูดถึงในความคิดเห็นของคุณด้านล่างนี้เป็นเพียงผลของการประมาณน้ำหนักรวมของไคสแควร์ ?


9
หนังสือประกอบด้วยคำอธิบายโดยละเอียดของการทดสอบนี้และพื้นฐานสำหรับการทดสอบ คำถามของคุณได้รับคำตอบอย่างเต็มที่ในหน้า 145-149 การกำหนดองศาอิสระในการนั้นเป็นเรื่องที่ละเอียดอ่อนเพราะการทดสอบเหล่านี้ส่วนใหญ่เป็นการประมาณ (ในตอนแรก) และการประมาณนั้นดีเฉพาะเมื่อใช้เงื่อนไขทางเทคนิคเล็กน้อยเท่านั้น สำหรับการอภิปรายของทั้งหมดนี้บางดูstats.stackexchange.com/a/17148 H&L ใช้เส้นทางที่ปฏิบัติได้จริง: พวกเขาใช้คำแนะนำของ DF ใน "การจำลองสถานการณ์มากมาย" χ2d2
whuber

4
ขณะนี้การทดสอบนี้ถือว่าล้าสมัยเนื่องจาก (1) ขาดพลังงาน (2) การแบ่งความน่าจะเป็นอย่างต่อเนื่องและ (3) การเลือกโดยเด็ดขาดในการเลือก binning และการเลือกคำจำกัดความของ deciles แนะนำให้ใช้การทดสอบ Hosmer - le Cessie 1 df หรือทดสอบ Spiegelhalter ดูตัวอย่างrmsแพ็คเกจR residuals.lrmและval.probฟังก์ชั่น
Frank Harrell

2
@ Frank Harell: (a) แม้แต่การทดสอบ Hosmer-Lemeshow ล้าสมัยฉันคิดว่ามันน่าสนใจที่จะเข้าใจความแตกต่างกับและ (b) คุณมีการอ้างอิงที่แสดงให้เห็นว่าการทดสอบ Spiegelhalter มีอำนาจมากกว่า Hosmer - แสดงตัวอย่างการทดสอบ? χ2

2
ปัญหาเหล่านี้ IMHO มีขนาดเล็กมากเมื่อเปรียบเทียบกับคำถามเดิม
Frank Harrell

3
ฉันคิดว่ารายละเอียดปรากฏที่อื่นในเว็บไซต์นี้ สั้น ๆ (1) Hosmer แสดงให้เห็นว่าการทดสอบนั้นเป็นไปตามอำเภอใจ - มีความอ่อนไหวอย่างมากต่อวิธีการคำนวณ deciles (2) ไม่มีพลังงาน คุณสามารถเห็นได้ว่ามันขึ้นอยู่กับปริมาณที่ไม่แน่นอนโดยการพล็อตกราฟการสอบเทียบที่ถูกทำให้โค้งงอ (ตรงข้ามกับกราฟการสอบเทียบที่ราบรื่น) และสังเกตการกระโดด นอกจากนี้มันไม่ถูกต้องสำหรับการ overfitting มาก
Frank Harrell

คำตอบ:


2

Hosmer DW, Lemeshow S. (1980), การทดสอบความดีพอดีสำหรับแบบจำลองการถดถอยโลจิสติกหลายแบบ การสื่อสารในสถิติ, A10, 1043-1069 แสดงให้เห็นว่า:

ถ้าแบบจำลองนั้นเป็นแบบจำลองการถดถอยโลจิสติกและพารามิเตอร์ถูกประเมินโดยความน่าจะเป็นสูงสุดและกลุ่มGถูกกำหนดในความน่าจะเป็นโดยประมาณจากนั้นจะถือว่าX 2นั้นเป็น asymptotically χ 2 ( G - p - 1 ) + p + 1 i = 1 λ i χ 2 i ( 1 ) (Hosmer, Lemeshow, 1980, p.1052, ทฤษฎีบท 2)pGX2χ2(Gp1)+i=1p+1λiχi2(1)

(หมายเหตุ: เงื่อนไขที่จำเป็นไม่ได้ระบุไว้อย่างชัดเจนในทฤษฎีบท 2 ในหน้า 1052 แต่ถ้ามีคนอ่านกระดาษและหลักฐานอย่างตั้งใจแล้วปรากฏขึ้นเหล่านี้)

เทอมที่สองผลมาจากความจริงที่ว่าการจัดกลุ่มจะขึ้นอยู่กับการประเมิน - คือการสุ่ม - ปริมาณ (Hosmer, Lemeshow, 1980, p.1051)i=1p+1λiχi2(1)

โดยใช้แบบจำลองพวกเขาแสดงให้เห็นว่าในระยะที่สองสามารถ (ในกรณีที่ใช้ในการจำลอง) ประมาณโดย (Hosmer, Lemeshow, 1980, p.1060)χ2(p1)

รวมทั้งสองข้อเท็จจริงผลลัพธ์ในผลรวมของทั้งสองตัวแปรหนึ่งที่มีG - พี- 1องศาอิสระและเป็นครั้งที่สองเป็นหนึ่งเดียวกับพี- 1 องศาอิสระหรือX 2 ~ χ 2 ( G - พี- 1 + P - 1 = G - 2 )χ2Gp1p1X2χ2(Gp1+p1=G2)

ดังนั้นคำตอบของคำถามจึงอยู่ที่การ 'ถ่วงน้ำหนักไคสแควร์' หรือในความจริงที่ว่ากลุ่มถูกกำหนดโดยใช้ความน่าจะเป็นโดยประมาณซึ่งเป็นตัวแปรสุ่ม

ดูที่Hosmer Lemeshow (1980) Paper - Theorem 2


'ดังนั้นคำตอบของคำถามจึงอยู่ที่การ' ถ่วงน้ำหนักไคสแควร์ ' และในความจริงที่ว่ากลุ่มถูกกำหนดโดยใช้ความน่าจะเป็นโดยประมาณซึ่งเป็นตัวแปรสุ่มเอง ) ความน่าจะเป็นที่คาดจะทำให้คุณได้รับเสริมการลดลงของ P + 1 ซึ่งจะทำให้ความแตกต่างหลักกับกรณีของตารางฉุกเฉิน (ในซึ่งมีเพียงแง่กรัมมีประมาณ) B ) คำว่าไคสแควร์ถ่วงน้ำหนักเกิดขึ้นเนื่องจากการแก้ไขนั้นไม่ได้เป็นการประเมินความน่าจะเป็นหรือมีประสิทธิภาพเท่ากันและทำให้ผลของการลดลงน้อยกว่า (p + 1)
Sextus Empiricus

@Martijn Weterings: ฉันถูกไหมถ้าฉันสรุปได้ว่าสิ่งที่คุณพูดในความคิดเห็นนี้ไม่ใช่คำอธิบายที่เหมือนกันทั้งหมด (ไม่ต้องพูดแตกต่างอย่างสิ้นเชิง) เหมือนกับที่คุณพูดในคำตอบของคุณ? ความคิดเห็นของคุณนำไปสู่ข้อสรุปว่า df คือ หรือไม่? G2

คำตอบของฉันอธิบายถึงสัญชาตญาณที่อยู่เบื้องหลังความแตกต่างขององศาอิสระเทียบกับเหตุผลตาม "สถิติการทดสอบสำหรับการทดสอบสำหรับตารางฉุกเฉินนี้" มันอธิบายว่าทำไมพวกเขาถึงแตกต่างกัน (กรณีประมาณเซลล์คงที่) มันมุ่งเน้นไปที่ 'การลดลงปกติ' ซึ่งคุณจะสรุปได้ว่า df จะเป็น G-3 อย่างไรก็ตามเงื่อนไขบางประการสำหรับ 'การลดลงปกติ' ไม่เป็นไปตาม ด้วยเหตุผลนี้ (เซลล์สุ่ม) คุณจะได้คำศัพท์ที่ซับซ้อนมากขึ้นด้วยคำว่าไคสแควร์ที่มีน้ำหนักเป็นการแก้ไขและคุณจะจบลงด้วย G-2 มันห่างไกลจากความแตกต่างอย่างสิ้นเชิง χ2
Sextus Empiricus

@ Martijn Weterings ขอโทษ แต่ฉันไม่สามารถ upvote เพราะฉันไม่เห็นความคิดใด ๆ เช่น 'เซลล์สุ่ม' ในคำตอบของคุณคุณหมายความว่าอัลรูปสวย ๆ ของคุณ (และฉันหมายความว่าพวกเขาดีมาก) อธิบาย บางสิ่งเกี่ยวกับ 'เซลล์สุ่ม' หรือคุณคิดด้วยความคิดนั้นหลังจากอ่านคำตอบของฉัน

อย่าเสียใจ ฉันยอมรับว่าคำตอบของฉันไม่ใช่คำตอบที่แน่นอนเพื่อแสดงระดับความเป็นอิสระในแบบทดสอบ HL ฉันขอโทษสำหรับสิ่งนั้น สิ่งที่คุณต้องเป็น Chernoff เลห์แมนสถิติ (กับยังเซลล์สุ่ม) ที่ตามi=1ks1χ2(1)+i=ksk1λiχi2(1)การกระจาย ขณะนี้ยังไม่ชัดเจนสำหรับฉันว่าส่วนใดที่ทำให้คุณหนักใจฉันหวังว่าคุณจะสร้างสรรค์สิ่งนี้ได้มากขึ้น หากคุณต้องการคำอธิบายทั้งหมดคุณมีบทความสำหรับเรื่องนั้นอยู่แล้ว คำตอบของฉันเพียง tackled อธิบายความแตกต่างหลักในการทดสอบตารางฉุกเฉิน i=1ks1χ2(1)
Sextus Empiricus

2

ทฤษฎีที่คุณอ้างถึง (ส่วนการลดลงตามปกติ "การลดองศาอิสระตามปกติเนื่องจากพารามิเตอร์โดยประมาณ") ได้รับการสนับสนุนโดย RA Fisher เป็นส่วนใหญ่ ใน 'การตีความของ Chi Square จากตารางฉุกเฉินและการคำนวณของ P' (1922) เขาแย้งที่จะใช้กฎและใน 'ความดีของแบบฟอร์มการถดถอย' ( 2465) เขาระบุว่าจะลดองศาอิสระด้วยจำนวนพารามิเตอร์ที่ใช้ในการถดถอยเพื่อให้ได้ค่าที่คาดหวังจากข้อมูล (เป็นที่น่าสนใจที่จะทราบว่าคนใช้การทดสอบไคสแควร์ในทางที่ผิดกับองศาอิสระที่ไม่ถูกต้องมานานกว่ายี่สิบปีนับตั้งแต่เปิดตัวในปี 1900)(R1)(C1)

กรณีของคุณเป็นประเภทที่สอง (การถดถอย) และไม่ใช่ประเภทเดิม (ตารางความเป็นไปได้) แม้ว่าทั้งสองจะเกี่ยวข้องกันว่าเป็นข้อ จำกัด เชิงเส้นของพารามิเตอร์

เนื่องจากคุณจำลองค่าที่คาดไว้ตามค่าที่สังเกตได้ของคุณและคุณทำสิ่งนี้กับแบบจำลองที่มีพารามิเตอร์สองตัวการลดลงขององศาปกติตามปกติคือสองบวกหนึ่ง (เพิ่มอีกหนึ่งเนื่องจาก O_i ต้องรวมถึง ผลรวมซึ่งเป็นข้อ จำกัด เชิงเส้นอีกเส้นหนึ่งและคุณจะจบลงอย่างมีประสิทธิภาพด้วยการลดลงสองแทนที่จะเป็นสามเพราะ 'ประสิทธิภาพในการใช้งาน' ของค่าที่คาดหวังจากแบบจำลอง)


การทดสอบไคสแควร์ใช้เป็นเครื่องวัดระยะทางเพื่อแสดงว่าผลลัพธ์ใกล้เคียงกับข้อมูลที่คาดหวังมากเพียงใด ในหลาย ๆ เวอร์ชั่นของการทดสอบไคสแควร์การกระจายตัวของ 'ระยะทาง' นี้เกี่ยวข้องกับผลรวมของการเบี่ยงเบนในตัวแปรกระจายแบบปกติ (ซึ่งเป็นจริงในขีด จำกัด เท่านั้นและเป็นการประมาณถ้าคุณจัดการกับข้อมูลที่ไม่ปกติ .χ2

สำหรับการแจกแจงปกติหลายตัวแปรฟังก์ชันความหนาแน่นจะสัมพันธ์กับโดยχ2

f(x1,...,xk)=e12χ2(2π)k|Σ|

ด้วยดีเทอร์มีแนนต์ของเมทริกซ์ความแปรปรวนร่วมของx|Σ|x

และคือระยะทาง Mahalanobis ซึ่งจะช่วยลดระยะทางในการ Euclidian ถ้าΣ =ฉันχ2=(xμ)TΣ1(xμ)Σ=I

ในบทความของเขา 1900 เพียร์สันที่ถกเถียงกันอยู่ว่า -levels มี spheroids และบอกว่าเขาสามารถเปลี่ยนพิกัดทรงกลมเพื่อรวมค่าเช่นP ( χ 2 > ) ซึ่งกลายเป็นส่วนประกอบสำคัญเดียวχ2P(χ2>a)


มันคือการแสดงเชิงเรขาคณิต, เป็นระยะทางและเป็นฟังก์ชันความหนาแน่นที่สามารถช่วยให้เข้าใจการลดลงขององศาอิสระเมื่อมีข้อ จำกัด เชิงเส้นχ2

กรณีแรกของตาราง 2x2 ฉุกเฉินที่ คุณควรสังเกตว่าทั้งสี่ค่าไม่ใช่ตัวแปรกระจายแบบอิสระอิสระสี่ตัว พวกเขาจะเกี่ยวข้องกันแทนและต้มลงไปเป็นตัวแปรเดียวOiEiEi

ให้ใช้ตาราง

Oij=o11o12o21o22

ถ้าค่าคาดหวัง

Eij=e11e12e21e22

ที่ได้รับการแก้ไขแล้วจะถูกกระจายเป็นการกระจายแบบไคสแควร์ที่มีอิสระสี่องศา แต่บ่อยครั้งที่เราประมาณค่าeijตามoijและการแปรผันนั้นไม่เหมือนกับตัวแปรอิสระสี่ตัว เรากลับได้รับความแตกต่างทั้งหมดระหว่างoและeเหมือนกันoijeijeijeijoijoe

(o11e11)=(o22e22)=(o21e21)=(o12e12)=o11(o11+o12)(o11+o21)(o11+o12+o21+o22)

และพวกเขาเป็นตัวแปรเดียวอย่างมีประสิทธิภาพมากกว่าสี่ ทางเรขาคณิตคุณสามารถเห็นสิ่งนี้เป็นค่าไม่รวมอยู่ในทรงกลมสี่มิติ แต่ในบรรทัดเดียวχ2

โปรดทราบว่าการทดสอบตารางฉุกเฉินนี้ไม่ใช่กรณีของตารางฉุกเฉินในการทดสอบ Hosmer-Lemeshow (ใช้การทดสอบสมมติฐานที่แตกต่างกัน!) ดูเพิ่มเติมในส่วน 2.1 'กรณีเมื่อและβ _เป็นที่รู้จักกันในบทความของฮอสเมอร์และ Lemshow ในกรณีของพวกเขาคุณจะได้รับอิสรภาพ 2g-1 องศาและไม่ใช่ g-1 องศาอิสระตามกฎ (R-1) (C-1) กฎ (R-1) (C-1) นี้เป็นกรณีเฉพาะสำหรับสมมติฐานว่างว่าตัวแปรแถวและคอลัมน์เป็นอิสระ (ซึ่งสร้างข้อ จำกัด R + C-1 ในo i - e iβ0β_oieiค่า) การทดสอบ Hosmer-Lemeshow เกี่ยวข้องกับสมมติฐานที่ว่าเซลล์ถูกเติมเต็มตามความน่าจะเป็นของแบบจำลองการถดถอยโลจิสติกตามพารามิเตอร์ในกรณีของสมมติฐานการกระจายแบบ A และp + 1ในกรณีของสมมติฐานการกระจายขfourp+1

สองกรณีของการถดถอย การถดถอยทำบางสิ่งที่คล้ายกับความแตกต่างของเป็นตารางฉุกเฉินและลดมิติของความแปรปรวน มีการแสดงทางเรขาคณิตที่ดีสำหรับการนี้เป็นค่าเป็นY ฉันสามารถแสดงเป็นผลรวมของระยะรุ่นβ x ฉันและที่เหลือ (ไม่ผิด) แง่εฉัน เทอมโมเดลและเทอมที่เหลือแต่ละอันแทนมิติของพื้นที่ซึ่งตั้งฉากซึ่งกันและกัน นั่นหมายถึงข้อกำหนดที่เหลือϵ ioeyiβxiϵiϵiไม่สามารถรับค่าใด ๆ ที่เป็นไปได้! กล่าวคือพวกเขาลดลงโดยส่วนที่โครงการในรูปแบบและโดยเฉพาะอย่างยิ่ง 1 มิติสำหรับแต่ละพารามิเตอร์ในรูปแบบ


บางทีภาพต่อไปนี้อาจช่วยได้บ้าง

ด้านล่างนี้คือ 400 ครั้งสาม (uncorrelated) ตัวแปรจากการแจกแจงทวินาม ) พวกเขาเกี่ยวข้องกับตัวแปรกระจายปกติN ( μ = n * P , σ 2 = n * P * ( 1 - P ) ) ในภาพเดียวกันเราวาดพื้นผิว iso สำหรับχ 2 = 1B(n=60,p=1/6,2/6,3/6)N(μ=np,σ2=np(1p))χ2=1,2,6χ0ae12χ2χd1dχχd1χ

graphical representation of chi^2

ภาพด้านล่างนี้สามารถใช้เพื่อรับแนวคิดเกี่ยวกับการลดขนาดในส่วนที่เหลือ มันอธิบายวิธีการปรับกำลังสองน้อยที่สุดในรูปทรงเรขาคณิต

ในสีน้ำเงินคุณมีการวัด ในสีแดงคุณมีสิ่งที่แบบจำลองช่วยให้ การวัดมักจะไม่เท่ากันกับตัวแบบและมีความเบี่ยงเบนบ้าง คุณสามารถพิจารณาสิ่งนี้ได้ในเชิงเรขาคณิตเป็นระยะทางจากจุดที่วัดไปยังพื้นผิวสีแดง

mu1 and mu2 have values (1,1,1) and (0,1,2) and could be related to some linear model as x = a + b * z + error or

[x1x2x3]=a[111]+b[012]+[ϵ1ϵ2ϵ3]

so the span of those two vectors (1,1,1) and (0,1,2) (the red plane) are the values for x that are possible in the regression model and ϵ is a vector that is the difference between the observed value and the regression/modeled value. In the least squares method this vector is perpendicular (least distance is least sum of squares) to the red surface (and the modeled value is the projection of the observed value onto the red surface).

So this difference between observed and (modelled) expected is a sum of vectors that are perpendicular to the model vector (and this space has dimension of the total space minus the number of model vectors).

In our simple example case. The total dimension is 3. The model has 2 dimensions. And the error has a dimension 1 (so no matter which of those blue points you take, the green arrows show a single example, the error terms have always the same ratio, follow a single vector).

graphical representation of regression dimension reduction


I hope this explanation helps. It is in no way a rigorous proof and there are some special algebraic tricks that need to be solved in these geometric representations. But anyway I like these two geometrical representations. The one for the trick of Pearson to integrate the χ2 by using the spherical coordinates, and the other for viewing the sum of least squares method as a projection onto a plane (or larger span).

I am always amazed how we end up with oee, this is in my point of view not trivial since the normal approximation of a binomial is not a devision by e but by np(1p) and in the case of contingency tables you can work it out easily but in the case of the regression or other linear restrictions it does not work out so easily while the literature is often very easy in arguing that 'it works out the same for other linear restrictions'. (An interesting example of the problem. If you performe the following test multiple times 'throw 2 times 10 times a coin and only register the cases in which the sum is 10' then you do not get the typical chi-square distribution for this "simple" linear restriction)


2
In my honest opinion this answer has very nice figures and arguments that are related to χ2 test but it has not so much to do with the question which is about the Hosmer-Lemeshow test for a logistic regression. You are arguing something with a regression where 1 parameters is estimated but the Hosmer-Lemeshow test is about a logistic regression where p>1 parameters are estimated. See also stats.stackexchange.com/questions/296312/…

... and, as you say, you end up with an e in the denominator and not with a np(1p) , so this does not answer this question. Hence I have to downvote, sorry (but the graphs are very nice :-) ).

You were asking in a comment for "to understand the formula or at least the 'intuitive' explanation". So that is what you get with these geometrical interpretations. To calculate exactly how these np(1p) cancel out if you add both the positive and negative cases is far from intuitive and does not help you understand the dimensions.
Sextus Empiricus

In my answer I used the typical (d1p) degrees of freedom and assumed that the regression was performed with one parameter (p=1), which was a mistake. The parameters in your references are two, a β0 and β. These two parameters would have reduced the dimensionality to d-3 if only the proper conditions (efficient estimate) would have been met (see for instance again a nice article from Fisher 'The conditions under which the chi square measures the discrepancy between observation and hypothesis')....
Sextus Empiricus

....anyway, I explained why we don't get dimension d-1 (and should instead expect something like d-3, if you put two parameters in the regression) and how the dimensional reduction by an efficient estimate can be imagined. It is the Moore-Spruill article that works out the extra terms (potentially increasing the effective degrees of freedom) due to that inefficiency and it is the Hosmer-Lemeshow simulation that shows that d-2 works best. That theoretical work is far from intuitive and the simulation is far from exact. My answer is just the requested explanation for the difference with d-1.
Sextus Empiricus
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.