คำถามติดแท็ก inference

สรุปผลเกี่ยวกับพารามิเตอร์ประชากรจากข้อมูลตัวอย่าง ดู https://en.wikipedia.org/wiki/Inference และ https://en.wikipedia.org/wiki/Statistical_inference

6
ทำไมเราต้องมีการถดถอยหลายตัวแปร (ซึ่งต่างจากการถดถอยหลายตัวแปร)
ฉันเพียงแค่เรียกดูผ่านหนังสือที่ยอดเยี่ยมนี้: การประยุกต์ใช้การวิเคราะห์ทางสถิติหลายตัวแปรโดยจอห์นสันและ Wichern การประชดคือฉันยังคงไม่สามารถเข้าใจแรงจูงใจในการใช้แบบจำลองหลายตัวแปร (การถดถอย) แทนที่จะเป็นแบบจำลองแบบ univariate (การถดถอย) ที่แยกต่างหาก ฉันผ่าน stats.statexchange โพสต์ที่1และ2ที่อธิบาย (ก) ความแตกต่างระหว่างการถดถอยแบบหลายตัวแปรและหลายตัวแปรและ (b) การตีความผลการถดถอยหลายตัวแปร แต่ฉันไม่สามารถปรับแต่งการใช้แบบจำลองสถิติหลายตัวแปรจากข้อมูลทั้งหมดที่ฉัน ออนไลน์เกี่ยวกับพวกเขา คำถามของฉันคือ: ทำไมเราต้องมีการถดถอยหลายตัวแปร? อะไรคือข้อได้เปรียบของการพิจารณาผลลัพธ์พร้อมกันมากกว่าแต่ละรายการเพื่อที่จะทำการอนุมาน เมื่อใดจึงควรใช้แบบจำลองหลายตัวแปรและเมื่อใดจึงจะใช้แบบจำลองหลายตัวแปร (สำหรับหลายผลลัพธ์) ยกตัวอย่างที่ได้รับจากเว็บไซต์ของ UCLAด้วยผลลัพธ์สามประการ: สถานที่ควบคุม, แนวคิดของตัวเองและแรงจูงใจ ด้วยความเคารพต่อ 1 และ 2 เราสามารถเปรียบเทียบการวิเคราะห์เมื่อเราทำการถดถอยแบบหลายตัวแปรที่ไม่ซ้ำกันสามตัวเปรียบเทียบกับการถดถอยหลายตัวแปรแบบหลายตัวแปรได้หรือไม่ วิธีที่จะพิสูจน์ความชอบธรรมมากกว่ากันได้อย่างไร ฉันยังไม่ได้เจอกับเอกสารทางวิชาการมากมายที่ใช้ตัวแบบสถิติหลายตัวแปร นี่เป็นเพราะข้อสันนิษฐานของตัวแปรหลายตัวแปรความซับซ้อนของการปรับ / ตีความแบบจำลองหรือเหตุผลเฉพาะอื่น ๆ ?

4
อะไรคือปัจจัยที่ทำให้การแจกแจงหลังเป็นเรื่องยาก
ในสถิติแบบเบย์มักถูกกล่าวถึงว่าการกระจายหลังนั้นเป็นไปไม่ได้ดังนั้นจึงต้องใช้การอนุมานโดยประมาณ อะไรคือปัจจัยที่ทำให้เกิดความไม่สะดวกนี้

2
เราควรจะปรับการเปรียบเทียบหลายรายการเมื่อใช้ช่วงความมั่นใจหรือไม่
สมมติว่าเรามีการเปรียบเทียบสถานการณ์หลายอย่างเช่นการโพสต์เฉพาะกิจการอนุมานทางสถิติที่คู่หรือเหมือนการถดถอยพหุคูณที่เราจะทำทั้งหมดmmmเปรียบเทียบ สมมติว่าเราต้องการสนับสนุนการอนุมานในทวีคูณเหล่านี้โดยใช้ช่วงความมั่นใจ 1. เราใช้การปรับเปรียบเทียบหลายรายการกับ CIs หรือไม่ นั่นคือเช่นเดียวกับการเปรียบเทียบหลายครั้งบังคับให้นิยามใหม่ของαα\alphaกับอัตราข้อผิดพลาดที่ครอบครัวฉลาด (FWER) หรืออัตราการค้นพบที่ผิดพลาด (FDR) หมายถึงความมั่นใจ (หรือความน่าเชื่อถือ1หรือความไม่แน่นอนหรือการทำนายหรืออนุมาน ... เลือกช่วงเวลาของคุณ) รับการเปลี่ยนแปลงที่คล้ายกันโดยการเปรียบเทียบหลายรายการ? ฉันรู้ว่าคำตอบเชิงลบที่นี่จะสงสัยคำถามที่เหลืออยู่ของฉัน 2. มีการแปลตรงไปตรงมาของขั้นตอนการปรับเปรียบเทียบหลายรายการตั้งแต่การทดสอบสมมติฐานไปจนถึงการประมาณช่วงเวลาหรือไม่? ยกตัวอย่างเช่นการปรับเปลี่ยนจะมุ่งเน้นไปที่การเปลี่ยนCI-levelCI-level\text{CI-level}ระยะในช่วงความเชื่อมั่น: CIθ=(θ^±t(1−CI-level)/2σ^θ)CIθ=(θ^±t(1−CI-level)/2σ^θ)\text{CI}_{\theta} = (\hat{\theta} \pm t_{(1-\text{CI-level)/2}}\hat{\sigma}_{\theta}) ? 3. เราจะจัดการกับขั้นตอนการควบคุมขั้นตอนขึ้นหรือลงสำหรับ CIs ได้อย่างไร การปรับอัตราข้อผิดพลาดที่เหมาะกับครอบครัวบางส่วนจากวิธีการทดสอบสมมติฐานเพื่ออนุมานคือ 'คงที่' ในการปรับที่เหมือนกันอย่างแม่นยำจะทำกับการอนุมานที่แยกจากกัน ตัวอย่างเช่นการปรับ Bonferroni ทำโดยการเปลี่ยนเกณฑ์การปฏิเสธจาก: ปฏิเสธถ้าp≤α2p≤α2p\le \frac{\alpha}{2}ถึง: ปฏิเสธถ้าp≤α2mp≤α2mp\le \frac{\frac{\alpha}{2}}{m} , แต่การปรับระดับขั้นตอนของ Holm-Bonferroni ไม่ใช่ 'คงที่' แต่ทำโดย: การสั่งซื้อครั้งแรกค่าpppน้อยที่สุดไปหามากที่สุดและจากนั้น ปฏิเสธถ้าp≤1−(1−α2)1m+1−ip≤1−(1−α2)1m+1−ip\le 1 - (1- …

3
Kullback-Leibler divergence โดยไม่มีทฤษฎีข้อมูล
หลังจากผ่านการตรวจสอบของ Cross Validated แล้วฉันยังไม่รู้สึกว่าฉันเข้าใกล้การเข้าใจความแตกต่างของ KL นอกทฤษฎีข้อมูล มันค่อนข้างแปลกสำหรับใครบางคนที่มีพื้นฐานทางคณิตศาสตร์เพื่อให้เข้าใจคำอธิบายทฤษฎีข้อมูลได้ง่ายขึ้น เพื่อสรุปความเข้าใจของฉันจากเบื้องหลังทฤษฎีข้อมูล: ถ้าเรามีตัวแปรสุ่มที่มีจำนวนผลลัพธ์ที่แน่นอนมีการเข้ารหัสที่ดีที่สุดซึ่งช่วยให้เราสามารถสื่อสารผลลัพธ์กับคนอื่นโดยเฉลี่ยกับข้อความสั้นที่สุด (ฉันพบสิ่งนี้ง่ายที่สุดในการ รูปภาพในรูปของบิต) ความยาวที่คาดหวังของข้อความจะต้องสื่อสารผลลัพธ์โดยหากใช้การเข้ารหัสที่เหมาะสมที่สุด หากคุณต้องใช้การเข้ารหัสที่เหมาะสมที่สุดย่อยแล้ว KL divergence จะบอกเราโดยเฉลี่ยว่าข้อความของเราจะนานเท่าไร- ∑αพีαเข้าสู่ระบบ2( หน้าα)-Σαพีαเข้าสู่ระบบ2⁡(พีα) -\sum _{\alpha}p_{\alpha}\log_{2}(p_{\alpha}) ฉันชอบคำอธิบายนี้เพราะมันค่อนข้างเกี่ยวข้องกับความไม่สมมาตรของ KL divergence หากเรามีระบบที่แตกต่างกันสองระบบคือสองเหรียญที่โหลดแตกต่างกันพวกเขาจะมีการเข้ารหัสที่ดีที่สุดที่แตกต่างกัน ฉันไม่รู้สึกอย่างสัญชาตญาณว่าการใช้การเข้ารหัสของระบบที่สองสำหรับครั้งแรกนั้น "แย่พอ ๆ กัน" กับการใช้การเข้ารหัสของระบบแรกเป็นครั้งที่สอง โดยไม่ต้องผ่านกระบวนการคิดว่าฉันเชื่อมั่นในตัวเองอย่างไรตอนนี้ฉันมีความสุขมากที่จะช่วยให้คุณนี้ "ข้อความยาวคาดว่าพิเศษ" เมื่อใช้ 's เข้ารหัสสำหรับพีΣαพีα( บันทึก2Qα- บันทึก2พีα)Σαพีα(เข้าสู่ระบบ2⁡Qα-เข้าสู่ระบบ2⁡พีα)\sum _{\alpha}p_{\alpha}( \log _{2}q_{\alpha}-\log_{2}p_{\alpha})QQqพีพีp อย่างไรก็ตามคำจำกัดความส่วนใหญ่ของ KL divergence รวมถึงวิกิพีเดียก็ทำให้คำแถลง (ทำให้สิ่งนี้เป็นคำที่ไม่ต่อเนื่องเพื่อให้สามารถเปรียบเทียบกับการตีความทฤษฏีข้อมูลซึ่งทำงานได้ดีกว่าในแง่ที่ไม่ต่อเนื่องกันเป็นบิต) การแจกแจงจากนั้น KL จะให้การวัดบางส่วนของ "ความแตกต่าง" ฉันยังไม่เห็นคำอธิบายเดียวว่าแนวคิดทั้งสองนี้เกี่ยวข้องกันอย่างไร ฉันดูเหมือนจะจำได้ว่าในหนังสือของเขาเกี่ยวกับการอนุมานเดฟแมคเคย์ให้คะแนนเกี่ยวกับวิธีการบีบอัดข้อมูลและการอนุมานนั้นเป็นสิ่งเดียวกันและฉันสงสัยว่าคำถามของฉันเกี่ยวข้องกับเรื่องนี้จริงๆ …

2
“ ความไว้วางใจ” หมายถึงอะไร (ในบริบทของสถิติ)
เมื่อฉัน Google สำหรับ "fisher" "fiducial" ... ฉันแน่ใจว่าจะได้รับความนิยมมาก แต่สิ่งที่ฉันติดตามทั้งหมดนั้นเกินกว่าความเข้าใจของฉัน เพลงฮิตทั้งหมดเหล่านี้ดูเหมือนจะมีสิ่งหนึ่งที่เหมือนกัน: พวกเขาทั้งหมดเขียนขึ้นสำหรับนักสถิติย้อมสีขนสัตว์ผู้คนแพร่หลายในทฤษฎีการปฏิบัติประวัติศาสตร์และตำนานของสถิติ (ดังนั้นไม่มีบัญชีเหล่านี้รบกวนจิตใจที่จะอธิบายหรือแสดงให้เห็นถึงสิ่งที่ฟิชเชอร์หมายถึง "ความไว้วางใจ" โดยไม่ต้องหันไปหามหาสมุทรของศัพท์แสงและ / หรือผ่านเจ้าชู้ไปบางคลาสสิกหรืออื่น ๆ ของวรรณกรรมสถิติคณิตศาสตร์) ฉันไม่ได้อยู่ในกลุ่มเป้าหมายที่เลือกซึ่งอาจเป็นประโยชน์ต่อสิ่งที่ฉันพบในเรื่องนี้และอาจอธิบายได้ว่าทำไมทุกคนที่ฉันพยายามเข้าใจว่า Fisher หมายถึง "fiducial" ชนกับกำแพงของ พูดไม่ชัดเข้าใจยาก ไม่มีใครรู้ว่ามีความพยายามที่จะอธิบายให้คนที่ไม่ใช่นักสถิติมืออาชีพที่ชาวฟิชเชอร์หมายถึง "ความไว้วางใจ" หรือไม่? ป.ล. ฉันรู้ว่าฟิชเชอร์เป็นเป้าหมายที่เคลื่อนไหวเมื่อมันมาถึงสิ่งที่เขาหมายถึงโดย "fiducial" แต่ฉันคิดว่าคำนี้ต้องมี "ความหมายคงที่" ซึ่งหมายความว่าไม่เช่นนั้นมันจะไม่ทำงาน (อย่างชัดเจน ทำ) เป็นคำศัพท์ที่เข้าใจโดยทั่วไปภายในฟิลด์

1
ฉันต้องตายหลายครั้งเพื่อประเมินความเป็นธรรมของมันอย่างมั่นใจหรือไม่?
(ขออภัยล่วงหน้าสำหรับการใช้ภาษาฆราวาสมากกว่าภาษาทางสถิติ) ถ้าฉันต้องการวัดอัตราต่อรองของการกลิ้งแต่ละด้านของแม่พิมพ์หกด้านทางกายภาพที่เฉพาะเจาะจงให้อยู่ภายใน +/- 2% ด้วยความมั่นใจอย่างสมเหตุสมผลมั่นใจว่าจะต้องมีตัวอย่างม้วนจำนวนเท่าใด นั่นคือฉันจะต้องหมุนกี่ครั้งนับผลแต่ละครั้งเพื่อให้แน่ใจ 98% ว่าโอกาสที่จะหมุนแต่ละด้านอยู่ในช่วง 14.6% - 18.7% (หรือบางเกณฑ์ที่คล้ายกันซึ่งจะมีประมาณ 98% แน่ใจว่าผู้ตายมีความยุติธรรมภายใน 2%) (นี่เป็นเรื่องจริงในโลกแห่งเกมการจำลองโดยใช้ลูกเต๋าและต้องการให้แน่ใจว่าการออกแบบของลูกเต๋านั้นยอมรับได้ใกล้กับโอกาสที่จะหมุนแต่ละหมายเลขได้ 1/6 ซึ่งมีการอ้างว่าการออกแบบของลูกเต๋าทั่วไปหลายตัวนั้น กลิ้งลูกเต๋าดังกล่าวหลายครั้งละ 1,000 ครั้ง)

2
มีวิธีการใดที่ไม่ใช่แบบเบย์สำหรับการอนุมานเชิงทำนาย
ในการอนุมานแบบเบย์การกระจายการทำนายสำหรับข้อมูลในอนาคตนั้นได้มาจากการรวมเอาพารามิเตอร์ที่ไม่รู้จัก การบูรณาการการกระจายหลังของพารามิเตอร์เหล่านั้นจะช่วยให้การกระจายการคาดการณ์หลัง - การกระจายสำหรับข้อมูลในอนาคตเงื่อนไขตามที่สังเกตไว้แล้ว มีวิธีการใดที่ไม่ใช่แบบเบย์สำหรับการอนุมานเชิงคาดการณ์ที่มีการคำนึงถึงความไม่แน่นอนในการประมาณค่าพารามิเตอร์ ทุกคนรู้วิธีคำนวณช่วงเวลาการทำนายหลังจากการถดถอยเชิงเส้น แต่อะไรคือหลักการที่อยู่เบื้องหลังการคำนวณและวิธีการที่พวกเขาสามารถนำไปใช้ในสถานการณ์อื่น ๆ (เช่นการคำนวณช่วงเวลาการทำนายที่แน่นอนสำหรับการเปลี่ยนแปลงแบบเอ็กซ์โปเนนเชียล

3
เนย์แมน - เพียร์สันบทแทรก
ฉันได้อ่านบทสรุปของเนย์แมน - เพียร์สัน จากหนังสือ บทนำสู่ทฤษฎีสถิติโดย Mood, Graybill และ Boes แต่ฉันไม่เข้าใจบทแทรก ใครช่วยอธิบายบทแทรกให้ฉันด้วยคำพูดธรรมดา ๆ ได้ไหม? มันระบุว่าอะไร? Neyman-Pearson Lemma:ให้เป็นตัวอย่างแบบสุ่มจากโดยที่เป็นหนึ่งในสองค่าที่รู้จักและและให้ได้รับการแก้ไข .X1,…,XnX1,…,XnX_1,\ldots,X_nf(x;θ)f(x;θ)f(x;\theta)θθ\thetaθ0θ0\theta_0θ1θ1\theta_10&lt;α&lt;10&lt;α&lt;10<\alpha<1 ให้ เป็นค่าคงที่เป็นบวกและเป็นเซตย่อยของซึ่งตอบสนอง: \ text {และ} \ quad \ lambda \ ge \ quad k ^ * \ ข้อความ {ถ้า} (x_1, \ ldots, x_n) \ in \ bar C ^ * จากนั้นทดสอบ\ gamma ^ …

6
อะไรคือความแตกต่างระหว่างสถิติเชิงพรรณนาและเชิงอนุมาน
ความเข้าใจของฉันคือสถิติเชิงพรรณนาอธิบายคุณลักษณะเชิงปริมาณของตัวอย่างข้อมูลในขณะที่สถิติเชิงอนุมานได้ทำการอนุมานเกี่ยวกับประชากรที่ตัวอย่างถูกวาดขึ้นมา อย่างไรก็ตามหน้าวิกิพีเดียสำหรับสถานะการอนุมานทางสถิติ : โดยส่วนใหญ่แล้วการอนุมานทางสถิติทำให้ข้อเสนอเกี่ยวกับประชากรโดยใช้ข้อมูลที่ดึงมาจากประชากรที่สนใจผ่านการสุ่มตัวอย่างบางรูปแบบ "ส่วนใหญ่" ทำให้ฉันคิดว่าฉันอาจไม่เข้าใจแนวคิดเหล่านี้อย่างเหมาะสม มีตัวอย่างของสถิติเชิงอนุมานที่ไม่ได้ทำข้อเสนอเกี่ยวกับประชากรหรือไม่

3
การเปรียบเทียบระหว่าง MaxEnt, ML, Bayes และวิธีอนุมานเชิงสถิติประเภทอื่น ๆ
ฉันไม่มีทางสถิติ (ฉันมีหลักสูตรในสถิติทางคณิตศาสตร์ แต่ไม่มีอะไรมากไปกว่านั้น) และเมื่อเร็ว ๆ นี้ในขณะที่ศึกษาทฤษฎีข้อมูลและกลไกทางสถิติฉันพบสิ่งนี้เรียกว่า "วัดความไม่แน่นอน" / "เอนโทรปี" ฉันอ่าน Khinchin ที่มาของมันเป็นตัวชี้วัดความไม่แน่นอนและมันก็สมเหตุสมผลสำหรับฉัน อีกสิ่งหนึ่งที่สมเหตุสมผลก็คือคำอธิบายของเจย์เนสของ MaxEnt เพื่อให้ได้สถิติเมื่อคุณทราบค่าเฉลี่ยเลขคณิตของหนึ่งหรือมากกว่าหนึ่งฟังก์ชัน / s ในตัวอย่าง (สมมติว่าคุณยอมรับเป็นตัวชี้วัดความไม่แน่นอน) - ∑ pผมLNพีผม−∑piln⁡pi-\sum p_i\ln p_i ดังนั้นฉันค้นหาบนอินเทอร์เน็ตเพื่อค้นหาความสัมพันธ์กับวิธีการอนุมานเชิงสถิติอื่น ๆ และพระเจ้าฉันสับสน ตัวอย่างเช่นบทความนี้แนะนำโดยสมมติว่าฉันเข้าใจถูกต้องว่าคุณเพิ่งได้ตัวประมาณ ML ภายใต้การปรับแก้ปัญหาที่เหมาะสม MacKey ในหนังสือของเขาบอกว่า MaxEnt สามารถให้สิ่งแปลก ๆ แก่คุณและคุณไม่ควรใช้มันแม้แต่การประเมินเบื้องต้นในการอนุมานแบบเบย์ ฯลฯ ฉันมีปัญหาในการหาการเปรียบเทียบที่ดี คำถามของฉันคือคุณสามารถให้คำอธิบายและ / หรือการอ้างอิงที่ดีเกี่ยวกับจุดอ่อนและจุดแข็งของ MaxEnt เป็นวิธีการอนุมานเชิงสถิติด้วยการเปรียบเทียบเชิงปริมาณกับวิธีอื่น ๆ (เมื่อนำไปใช้กับโมเดลของเล่นเป็นต้น)

2
วิธีการแปลงผกผันทำงานอย่างไร
วิธีการผกผันทำงานอย่างไร สมมติว่าฉันมีตัวอย่างสุ่มมีความหนาแน่นมากกว่าและดังนั้นจึงมี CDFใน(0,1)แล้วตามด้วยวิธีการผกผันที่ฉันได้รับการกระจายของเป็นF_X X1,X2,...,XnX1,X2,...,XnX_1,X_2,...,X_nf(x;θ)=1θx(1−θ)θf(x;θ)=1θx(1−θ)θf(x;\theta)={1\over \theta} x^{(1-\theta)\over \theta} 0&lt;x&lt;10&lt;x&lt;10<x<1FX(x)=x1/θFX(x)=x1/θF_X(x)=x^{1/\theta}(0,1)(0,1)(0,1)XXXF−1X(u)=uθFX−1(u)=uθF_X^{-1}(u)=u^\theta ดังนั้นมีการกระจายของ ? นี่เป็นวิธีการกลับด้านหรือไม่uθuθu^\thetaXXX u&lt;-runif(n) x&lt;-u^(theta)

2
วิธีหาข้อผิดพลาดมาตรฐานของสัมประสิทธิ์การถดถอยเชิงเส้น
สำหรับโมเดลการถดถอยเชิงเส้นแบบไม่ ได้รับชุดข้อมูลการประมาณค่าสัมประสิทธิ์คือ \ hat \ beta_0 = \ bar y - \ hat \ beta_1 \ bar x นี่คือคำถามของฉันตาม หนังสือและWikipediaข้อผิดพลาดมาตรฐานของ\ hat \ beta_1คือs _ {\ hat \ beta_1} = \ sqrt {\ frac {\ sum_i \ hat \ epsilon_i ^ 2} {(n-2) \ sum_i (x_i- \ bar x ) ^ …

2
การวิเคราะห์ความยืดหยุ่น / ริดจ์ / เชือก
ฉันได้รับความสนใจในขั้นตอนสุทธิที่ยืดหยุ่นสำหรับการคาดการณ์การหดตัว / การเลือก ดูเหมือนว่าทรงพลังมาก แต่จากมุมมองทางวิทยาศาสตร์ฉันไม่รู้ดีว่าต้องทำอะไรเมื่อได้สัมประสิทธิ์ ฉันจะตอบคำถามอะไร นี่คือตัวแปรที่มีอิทธิพลต่อผลลัพธ์มากที่สุดและมีสัมประสิทธิ์ซึ่งให้อัตราส่วนความแปรปรวน / ความเอนเอียงที่ดีที่สุดระหว่างการตรวจสอบความถูกต้อง? แน่นอนว่านี่เป็นวิธีการบรรยาย / การคาดการณ์ที่ดีมากเมื่อเปรียบเทียบกับวิธีการประเมินค่าความเชื่อมั่นแบบดั้งเดิม ขณะนี้ Tibshirani &amp; Co. ได้ทำการศึกษาการประมาณค่าอนุมาน แต่ยังอยู่ระหว่างการทดลอง บางคนกำลังใช้ตัวแปรที่ถูกเลือกโดยเครือข่ายอีลาสติกเพื่อทำการวิเคราะห์เชิงอนุมานแบบคลาสสิก แต่นั่นจะขจัดข้อ จำกัด ในความแปรปรวนที่เกิดจากเทคนิค ปัญหาอีกประการหนึ่งคือเนื่องจากพารามิเตอร์แลมบ์ดาและอัลฟาสำหรับตาข่ายยืดหยุ่นถูกเลือกโดยการตรวจสอบความถูกต้องของข้อมูลพวกเขาจึงมีความแปรปรวนแบบสุ่ม ดังนั้นทุกครั้งที่คุณเรียกใช้ (เช่น.) cv.glmnet () คุณจะเลือกเซตย่อยที่แตกต่างกันเล็กน้อยของตัวทำนายที่มีค่าสัมประสิทธิ์ต่างกันอยู่เสมอ ฉันว่าเกี่ยวกับการแก้ปัญหานี้โดยพิจารณาแลมบ์ดาและอัลฟาที่ถูกต้องเป็นตัวแปรสุ่มและดำเนินการขั้นตอนการตรวจสอบความถูกต้องอีกครั้ง n เพื่อรับการแจกแจงของพารามิเตอร์เหล่านี้ วิธีนี้สำหรับผู้ทำนายทุกคนฉันจะมีจำนวนครั้งและทุกค่าสัมประสิทธิ์ฉันจะมีการแจกแจงผล สิ่งนี้จะให้ผลลัพธ์ generalizable เพิ่มเติมกับฉันช่วงสถิติ (เช่น sd ของสัมประสิทธิ์) มันน่าสนใจที่จะเห็นว่าแลมบ์ดาและอัลฟ่าเลือกวิธีนี้ใกล้เคียงกับการแจกแจงแบบไม่แสดงอาการหรือไม่เพราะมันจะเปิดทางสำหรับการทดสอบการอนุมาน (แต่ฉันไม่ใช่นักสถิติดังนั้นฉันไม่ควรพูดเกี่ยวกับสิ่งที่ฉันทำ ไม่เข้าใจ) ดังนั้นในที่สุดคำถามของฉันคือ: เมื่อคุณได้รับการทำนายและค่าสัมประสิทธิ์จากตาข่ายยืดหยุ่นด้วยการตรวจสอบข้ามตามอัลฟาและแลมบ์ดาซึ่งคุณควรนำเสนอผลลัพธ์เหล่านี้และวิธีการ? คุณควรพูดคุยกับพวกเขาอย่างไร? เราเรียนรู้อะไร เรากำลังตั้งสมมุติฐาน / การวางนัยทั่วไปอะไร

2
หากหลักการความน่าจะเป็นขัดแย้งกับความน่าจะเป็นที่เกิดขึ้นบ่อยครั้งเราจะยกเลิกหนึ่งในนั้นหรือไม่?
ในความคิดเห็นเพิ่งโพสต์ที่นี่ผู้วิจารณ์คนหนึ่งชี้ไปที่บล็อกของLarry Wassermanผู้ชี้ให้เห็น (โดยไม่มีแหล่งที่มา) ที่การอนุมานบ่อย ๆ ปะทะกับหลักการความน่าจะเป็น หลักการความน่าจะเป็นเพียงกล่าวว่าการทดลองที่ให้ฟังก์ชันความน่าจะเป็นที่คล้ายกันควรให้ข้อสรุปที่คล้ายคลึงกัน คำถามสองส่วนนี้: ส่วนใดกลิ่นรสหรือโรงเรียนที่มีการอนุมานเป็นประจำละเมิดหลักการความน่าจะเป็นโดยเฉพาะ? หากมีการปะทะกันเราต้องยกเลิกอย่างใดอย่างหนึ่งหรือไม่? ถ้าใช่แล้วอันไหนล่ะ? ฉันจะขอแนะนำว่าถ้าเราต้องทิ้งอะไรเราควรทิ้งส่วนของการอนุมานที่พบบ่อยซึ่งการปะทะกันเนื่องจากการแฮ็กและRoyallทำให้ฉันเชื่อว่าหลักการความน่าจะเป็นจริงเป็นจริง

2
เหตุใดข้อมูลฟิวชั่นฟิชเชอร์ฟิวเจอร์เซมิเซ จำกัด
ให้ n เมทริกซ์ข้อมูลฟิชเชอร์ถูกกำหนดเป็น:θ∈Rnθ∈Rn\theta \in R^{n} I(θ)i,j=−E[∂2log(f(X|θ))∂θi∂θj∣∣∣θ]I(θ)i,j=−E[∂2log⁡(f(X|θ))∂θi∂θj|θ]I(\theta)_{i,j} = -E\left[\frac{\partial^{2} \log(f(X|\theta))}{\partial \theta_{i} \partial \theta_{j}}\bigg|\theta\right] ฉันจะพิสูจน์ฟิชเชอร์ข้อมูลเมทริกซ์เป็น semidefinite เชิงบวกได้อย่างไร

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.