คำถามติดแท็ก likelihood-ratio

อัตราส่วนความน่าจะเป็นคืออัตราส่วนของความน่าจะเป็นของทั้งสองรุ่น (หรือค่า Null และค่าพารามิเตอร์ทางเลือกภายในโมเดลเดียว) ซึ่งอาจใช้เพื่อเปรียบเทียบหรือทดสอบโมเดล หากแบบจำลองใดไม่ได้ระบุอย่างครบถ้วนโอกาสสูงสุดที่จะเกิดขึ้นกับพารามิเตอร์อิสระทั้งหมด - บางครั้งเรียกว่าอัตราส่วนความน่าจะเป็นแบบทั่วไป

2
อัตราส่วนความน่าจะเป็นเทียบกับปัจจัย Bayes
ฉันค่อนข้างเป็นผู้เผยแพร่ศาสนาที่เกี่ยวกับการใช้อัตราส่วนโอกาสในการเป็นตัวแทนหลักฐานวัตถุประสงค์สำหรับ / ต่อปรากฏการณ์ที่กำหนด อย่างไรก็ตามเมื่อเร็ว ๆ นี้ฉันได้เรียนรู้ว่าปัจจัย Bayes ทำหน้าที่คล้ายกันในบริบทของวิธีการแบบเบย์ (เช่นอัตนัยก่อนหน้านี้รวมกับปัจจัย Bayes เป้าหมายเพื่อให้ได้สถานะความเชื่อทางอัตวิสัยที่อัปเดตอย่างเป็นกลาง) ตอนนี้ฉันพยายามที่จะเข้าใจความแตกต่างของการคำนวณและปรัชญาระหว่างอัตราส่วนความน่าจะเป็นและปัจจัยของเบย์ ในระดับการคำนวณฉันเข้าใจว่าในขณะที่อัตราส่วนความน่าจะเป็นมักจะคำนวณโดยใช้ความน่าจะเป็นที่เป็นไปได้สูงสุดสำหรับแต่ละพารามิเตอร์ของแต่ละรุ่น (เช่นการประเมินโดยการตรวจสอบความถูกต้อง ความน่าจะเป็นที่แสดงถึงความน่าจะเป็นของแต่ละรุ่นที่รวมอยู่ในนั้นคือพื้นที่พารามิเตอร์ทั้งหมด (กล่าวคือไม่ใช่ที่ MLE) โดยทั่วไปแล้วการบูรณาการนี้ประสบความสำเร็จได้อย่างไร? มีใครลองทำการคำนวณความน่าจะเป็นที่แต่ละตัวอย่างสุ่มจากหลายพัน (ล้าน?) จากพื้นที่พารามิเตอร์หรือมีวิธีการวิเคราะห์เพื่อรวมความน่าจะเป็นในพื้นที่พารามิเตอร์หรือไม่? นอกจากนี้เมื่อคำนวณปัจจัย Bayes นอกจากนี้อะไรคือความแตกต่างทางปรัชญาระหว่างอัตราส่วนความน่าจะเป็นและปัจจัย Bayes (หมายเหตุ: ฉันไม่ได้ถามเกี่ยวกับความแตกต่างทางปรัชญาระหว่างอัตราส่วนความน่าจะเป็นและวิธีการแบบเบย์โดยทั่วไป แต่ปัจจัย Bayes เป็นตัวแทนของ เราจะอธิบายลักษณะของความหมายของปัจจัย Bayes ได้อย่างไรเมื่อเทียบกับอัตราส่วนความน่าจะเป็น

2
เหตุใดการทดสอบอัตราส่วนความน่าจะเป็นกระจายแบบไคสแควร์
ทำไมสถิติการทดสอบของการทดสอบอัตราส่วนความน่าจะเป็นแบบกระจายไคสแควร์ 2(ln Lalt model−ln Lnull model)∼χ2dfalt−dfnull2(ln⁡ Lalt model−ln⁡ Lnull model)∼χdfalt−dfnull22(\ln \text{ L}_{\rm alt\ model} - \ln \text{ L}_{\rm null\ model} ) \sim \chi^{2}_{df_{\rm alt}-df_{\rm null}}

3
วิธีการกำหนดโอกาสอย่างจริงจัง?
โอกาสที่สามารถกำหนดได้หลายวิธีตัวอย่างเช่น: ฟังก์ชั่นจากซึ่งแผนที่เพื่อเช่น{R}LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} ฟังก์ชั่นแบบสุ่มL(⋅∣X)L(⋅∣X)L(\cdot \mid X) เราอาจพิจารณาได้ว่าความน่าจะเป็นเป็นเพียงโอกาส "สังเกต"L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) ในทางปฏิบัติความน่าจะเป็นที่นำข้อมูลไปสู่ขึ้นอยู่กับค่าคงที่แบบ multiplicative เท่านั้นดังนั้นเราจึงสามารถพิจารณาความเป็นไปได้ว่าเป็นคลาสเทียบเท่าของฟังก์ชันแทนที่จะเป็นฟังก์ชันθθ\theta อีกคำถามที่เกิดขึ้นเมื่อพิจารณาการเปลี่ยนแปลงของ parametrization: ถ้าเป็น parameterization ใหม่ที่เรามักจะแสดงโดยโอกาสในและนี่ไม่ใช่การประเมินฟังก์ชั่นก่อนหน้าที่แต่ในพี} นี่คือเครื่องหมายที่ไม่เหมาะสม แต่มีประโยชน์ซึ่งอาจทำให้เกิดความยุ่งยากสำหรับผู้เริ่มต้นหากไม่ได้เน้นϕ=θ2ϕ=θ2\phi=\theta^2L(ϕ∣x)L(ϕ∣x)L(\phi \mid x)ϕϕ\phiL(⋅∣x)L(⋅∣x)L(\cdot \mid x)θ2θ2\theta^2ϕ−−√ϕ\sqrt{\phi} คำจำกัดความที่คุณชื่นชอบอย่างเข้มงวดของความน่าจะเป็นคืออะไร? นอกจากนี้คุณจะเรียกอย่างไร ฉันมักจะพูดว่า "ความน่าจะเป็นในเมื่อสังเกต "L(θ∣x)L(θ∣x)L(\theta \mid x)θθ\thetaxxx แก้ไข: ในมุมมองของความคิดเห็นด้านล่างฉันรู้ว่าฉันควรจะมีบริบท ฉันพิจารณาแบบจำลองทางสถิติที่กำหนดโดยตระกูลพารามิเตอร์ของความหนาแน่นที่เกี่ยวกับการวัดที่มีอิทธิพลเหนือแต่ละอันที่มีกำหนดไว้ในพื้นที่สังเกตX} ดังนั้นเราจึงกำหนดและคำถามคือ "คืออะไร?" (คำถามไม่ได้เกี่ยวกับความหมายทั่วไปของความน่าจะเป็น)ฉ( ⋅ | θ ) X L ( θ …

2
เหตุใดการพิสูจน์ของวิลก์ในปี 1938 จึงไม่ทำงานกับแบบจำลองที่ผิดพลาด
ใน 1,938 กระดาษที่มีชื่อเสียง (" การกระจายตัวอย่างขนาดใหญ่ของอัตราส่วนความน่าจะเป็นสำหรับการทดสอบสมมติฐานประกอบ ", พงศาวดารของคณิตศาสตร์สถิติ, 9: 60-62), ซามูเอล Wilks มากระจาย asymptotic (อัตราส่วนความน่าจะเป็นบันทึก ) สำหรับสมมติฐานที่ซ้อนกันภายใต้สมมติฐานว่ามีการระบุสมมติฐานที่ใหญ่กว่าอย่างถูกต้อง การ จำกัด การแจกแจงคือχ 2 (ไค - สแควร์) ที่มีองศาอิสระh - mโดยที่hคือจำนวนพารามิเตอร์ในสมมติฐานขนาดใหญ่และm2×LLR2×LLR2 \times LLRχ2χ2\chi^2h−mh−mh-mhhhmmmคือจำนวนของพารามิเตอร์อิสระในสมมติฐานที่ซ้อนกัน อย่างไรก็ตามเป็นที่ทราบกันดีว่าผลลัพธ์นี้ไม่ได้เก็บไว้เมื่อสมมติฐานถูกสะกดผิด (กล่าวคือเมื่อสมมติฐานที่ใหญ่กว่านั้นไม่ใช่การแจกแจงที่แท้จริงสำหรับข้อมูลตัวอย่าง) มีใครอธิบายได้บ้างไหม สำหรับฉันแล้วดูเหมือนว่าการพิสูจน์ของวิลก์สควรจะทำงานกับการดัดแปลงเล็กน้อย มันขึ้นอยู่กับมาตรฐานเชิงเส้นกำกับของการประมาณความน่าจะเป็นสูงสุด (MLE) ซึ่งยังคงมีรูปแบบที่ผิดพลาด ความแตกต่างเพียงอย่างเดียวคือเมทริกซ์ความแปรปรวนของการ จำกัด หลายตัวแปรปกติ: สำหรับรุ่นที่ระบุไว้อย่างถูกต้องเราสามารถใกล้เคียงกับเมทริกซ์ความแปรปรวนร่วมกับผกผันฟิชเชอร์ข้อมูลเมทริกซ์กับ misspecification เราสามารถใช้การประมาณการแซนวิชของเมทริกซ์ความแปรปรวนร่วม ( J - 1 K J - 1 ) …

3
เนย์แมน - เพียร์สันบทแทรก
ฉันได้อ่านบทสรุปของเนย์แมน - เพียร์สัน จากหนังสือ บทนำสู่ทฤษฎีสถิติโดย Mood, Graybill และ Boes แต่ฉันไม่เข้าใจบทแทรก ใครช่วยอธิบายบทแทรกให้ฉันด้วยคำพูดธรรมดา ๆ ได้ไหม? มันระบุว่าอะไร? Neyman-Pearson Lemma:ให้เป็นตัวอย่างแบบสุ่มจากโดยที่เป็นหนึ่งในสองค่าที่รู้จักและและให้ได้รับการแก้ไข .X1,…,XnX1,…,XnX_1,\ldots,X_nf(x;θ)f(x;θ)f(x;\theta)θθ\thetaθ0θ0\theta_0θ1θ1\theta_10&lt;α&lt;10&lt;α&lt;10<\alpha<1 ให้ เป็นค่าคงที่เป็นบวกและเป็นเซตย่อยของซึ่งตอบสนอง: \ text {และ} \ quad \ lambda \ ge \ quad k ^ * \ ข้อความ {ถ้า} (x_1, \ ldots, x_n) \ in \ bar C ^ * จากนั้นทดสอบ\ gamma ^ …

2
ความสัมพันธ์ระหว่างคะแนน GINI และอัตราส่วนความน่าจะเป็นคืออะไร
ฉันกำลังศึกษาต้นไม้จำแนกและต้นไม้ถดถอยและหนึ่งในมาตรการสำหรับสถานที่แยกคือคะแนน GINI ตอนนี้ฉันถูกใช้เพื่อกำหนดตำแหน่งที่แยกที่ดีที่สุดเมื่อบันทึกอัตราส่วนความน่าจะเป็นของข้อมูลเดียวกันระหว่างการแจกแจงสองค่าเป็นศูนย์หมายความว่าโอกาสในการเป็นสมาชิกมีแนวโน้มเท่ากัน สัญชาตญาณของฉันบอกว่าต้องมีการเชื่อมต่อบางอย่างที่ GINI ต้องมีรากฐานที่ดีในทฤษฎีทางคณิตศาสตร์ของข้อมูล (Shannon) แต่ฉันไม่เข้าใจ GINI ดีพอที่จะได้รับความสัมพันธ์ของตัวเอง คำถาม: "หลักการแรก" ที่ได้มาจากคะแนนความไม่บริสุทธิ์ของ GINI เป็นตัวชี้วัดสำหรับการแยกคืออะไร? คะแนน GINI เกี่ยวข้องกับบันทึกของอัตราส่วนความน่าจะเป็นหรือปัจจัยพื้นฐานด้านข้อมูลทฤษฎีอื่น ๆ อย่างไร (Shannon Entropy, pdf , และเอนโทรปีของการข้ามเป็นส่วนหนึ่งของคะแนนเหล่านั้น) อ้างอิง: เกณฑ์การถ่วงน้ำหนักของ Gini เป็นอย่างไร คณิตศาสตร์ที่อยู่เบื้องหลังการจำแนกและต้นไม้การถดถอย http://www.cs.put.poznan.pl/jstefanowski/sed/DM-5-newtrees.pdf (เพิ่ม) http://www.ibe.med.uni-muenchen.de/organisation/mitarbeiter/020_professuren/boulesteix/pdf/gini.pdf https://www.youtube.com/watch?v=UMtBWQ2m04g http://www.ius-migration.ch/files/content/sites/imi/files/shared/documents/papers/Gini_index_fulltext.pdf /programming/4936788/decision-tree-learning-and-impurity เอนโทรปีของแชนนอนอธิบายว่า: H( x ) = ΣผมP( xผม) บันทึกขP( xผม)H(x)=ΣiP(xi)logb⁡P(xi) H \left(x \right) = \Sigma_{i} …

4
วิธีการฉายเวกเตอร์ใหม่บนพื้นที่ PCA?
หลังจากทำการวิเคราะห์องค์ประกอบหลัก (PCA) ฉันต้องการฉายเวกเตอร์ใหม่ลงบนพื้นที่ PCA (เช่นค้นหาพิกัดในระบบพิกัด PCA) ผมได้คำนวณ PCA ในภาษา R prcompโดยใช้ ตอนนี้ฉันควรคูณเวกเตอร์ของฉันด้วยเมทริกซ์การหมุน PCA ควรจัดองค์ประกอบหลักในเมทริกซ์นี้เป็นแถวหรือคอลัมน์?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

2
อนุญาตการเปรียบเทียบโมเดลเอฟเฟกต์แบบผสม (เอฟเฟกต์แบบสุ่มเป็นหลัก)
ฉันได้ดูการสร้างเอฟเฟ็กต์แบบผสมโดยใช้แพ็คเกจ lme4 ในอาร์ฉันใช้lmerคำสั่งเป็นหลักดังนั้นฉันจะถามคำถามของฉันผ่านรหัสที่ใช้ไวยากรณ์นั้น ฉันคิดว่าคำถามง่าย ๆ ทั่วไปอาจจะใช่ไหมที่จะเปรียบเทียบสองโมเดลที่สร้างขึ้นในการlmerใช้อัตราส่วนความน่าจะเป็นตามชุดข้อมูลที่เหมือนกันหรือไม่ ฉันเชื่อว่าคำตอบนั้นต้องเป็น "ไม่" แต่ฉันไม่ถูกต้อง ฉันได้อ่านข้อมูลที่ขัดแย้งกันว่าเอฟเฟกต์แบบสุ่มจะต้องเหมือนกันหรือไม่และองค์ประกอบของเอฟเฟกต์แบบสุ่มนั้นมีความหมายอย่างไร ดังนั้นฉันจะนำเสนอตัวอย่างเล็ก ๆ น้อย ๆ ฉันจะนำพวกเขาจากข้อมูลการวัดซ้ำ ๆ โดยใช้การกระตุ้นคำบางทีบางอย่างเช่นBaayen (2008)น่าจะมีประโยชน์ในการตีความ สมมติว่าฉันมีแบบจำลองที่มีตัวทำนายเอฟเฟกต์คงที่สองตัวเราจะเรียกพวกมันว่า A และ B และเอฟเฟกต์สุ่มบางอย่าง ... คำศัพท์และวิชาที่มองเห็นพวกมัน ฉันอาจสร้างแบบจำลองดังต่อไปนี้ m &lt;- lmer( y ~ A + B + (1|words) + (1|subjects) ) (โปรดทราบว่าฉันตั้งใจออกไปdata =และเราจะถือว่าฉันหมายถึงREML = FALSEเพื่อความชัดเจนเสมอ) ทีนี้จากแบบจำลองต่อไปนี้ซึ่งเป็นสิ่งที่โอเคที่จะเปรียบเทียบกับอัตราส่วนความน่าจะเป็นกับแบบจำลองข้างบนและแบบใด? m1 &lt;- lmer( y ~ A …

2
วิธีการเลือกโครงสร้างแบบสุ่มและแบบคงที่ในโมเดลเชิงเส้นผสม
พิจารณาข้อมูลต่อไปนี้จากการออกแบบสองทางภายในวิชา: df &lt;- "http://personality-project.org/r/datasets/R.appendix4.data" df &lt;- read.table(df,header=T) head(df) Observation Subject Task Valence Recall 1 1 Jim Free Neg 8 2 2 Jim Free Neu 9 3 3 Jim Free Pos 5 4 4 Jim Cued Neg 7 5 5 Jim Cued Neu 9 6 6 Jim Cued Pos 10 ฉันต้องการวิเคราะห์สิ่งนี้โดยใช้แบบจำลองเชิงเส้นผสม …

3
มีใครแก้ไข PTLOS แบบฝึกหัด 4.1 ได้บ้างไหม?
นี้การออกกำลังกายที่ได้รับในทฤษฎีความน่าจะเป็น: ตรรกะของวิทยาศาสตร์โดยเอ็ดวินเจย์นส์, ปี 2003 มีวิธีการแก้ปัญหาบางส่วนเป็นที่นี่ ฉันได้หาทางแก้ปัญหาบางส่วนที่กว้างขึ้นและสงสัยว่ามีคนอื่นแก้ไขมันได้ไหม ฉันจะรอสักครู่ก่อนโพสต์คำตอบของฉันเพื่อให้ผู้อื่นได้ไป เอาล่ะสมมติว่าเรามีnnnพิเศษร่วมกันและสมมติฐานหมดจดแสดงโดยHi(i=1,…,n)Hi(i=1,…,n)H_i \;\;(i=1,\dots,n) ) ต่อไปสมมติว่าเรามีชุดข้อมูลmmmแสดงโดยDj(j=1,…,m)Dj(j=1,…,m)D_j \;\;(j=1,\dots,m) ) อัตราส่วนความน่าจะเป็นสำหรับข้อสมมติฐานที่ i ถูกกำหนดโดย: LR(Hi)=P(D1D2…,Dm|Hi)P(D1D2…,Dm|H¯¯¯¯¯i)LR(Hi)=P(D1D2…,Dm|Hi)P(D1D2…,Dm|H¯i)LR(H_{i})=\frac{P(D_{1}D_{2}\dots,D_{m}|H_{i})}{P(D_{1}D_{2}\dots,D_{m}|\overline{H}_{i})} โปรดทราบว่าสิ่งเหล่านี้เป็นความน่าจะเป็นตามเงื่อนไข ตอนนี้สมมติว่าได้รับ ith สมมติฐานเมตรชุดข้อมูลมีความเป็นอิสระเพื่อให้เรามี:HiHiH_{i}mmm P(D1D2…,Dm|Hi)=∏j=1mP(Dj|Hi)(i=1,…,n)Condition 1P(D1D2…,Dm|Hi)=∏j=1mP(Dj|Hi)(i=1,…,n)Condition 1P(D_{1}D_{2}\dots,D_{m}|H_{i})=\prod_{j=1}^{m}P(D_{j}|H_{i}) \;\;\;\; (i=1,\dots,n)\;\;\;\text{Condition 1} ตอนนี้มันจะค่อนข้างสะดวกถ้าตัวหารยังรวมอยู่ในสถานการณ์นี้ด้วยดังนั้นเราจึงมี: P(D1D2…,Dm|H¯¯¯¯¯i)=∏j=1mP(Dj|H¯¯¯¯¯i)(i=1,…,n)Condition 2P(D1D2…,Dm|H¯i)=∏j=1mP(Dj|H¯i)(i=1,…,n)Condition 2P(D_{1}D_{2}\dots,D_{m}|\overline{H}_{i})=\prod_{j=1}^{m}P(D_{j}|\overline{H}_{i}) \;\;\;\; (i=1,\dots,n)\;\;\;\text{Condition 2} สำหรับในกรณีนี้อัตราส่วนความน่าจะเป็นแยกเป็นผลิตภัณฑ์ที่มีขนาดเล็กลงสำหรับแต่ละชุดข้อมูลดังนั้นเราจึงมี: LR(Hi)=∏j=1mP(Dj|Hi)P(Dj|H¯¯¯¯¯i)LR(Hi)=∏j=1mP(Dj|Hi)P(Dj|H¯i)LR(H_i)=\prod_{j=1}^{m}\frac{P(D_{j}|H_{i})}{P(D_{j}|\overline{H}_{i})} ดังนั้นในกรณีนี้แต่ละชุดข้อมูล "จะออกเสียงลงคะแนนสำหรับHiHiH_i " หรือ "โหวตกับHiHiH_i " เป็นอิสระจากชุดข้อมูลอื่น ๆ แบบฝึกหัดคือการพิสูจน์ว่าถ้าn&gt;2n&gt;2n>2 (มากกว่าสองข้อสมมุติ) ไม่มีวิธีที่ไม่น่าสนใจเช่นนี้ที่แฟคตอริ่งสามารถเกิดขึ้นได้ นั่นคือถ้าคุณสมมติว่าเงื่อนไข 1 และเงื่อนไข …

1
ฉันคำนวณอัตราส่วนความน่าจะเป็นได้เหล่านี้ถูกต้องหรือไม่
ฉันเป็นผู้เขียนแพ็กเกจ ezสำหรับ R และฉันกำลังดำเนินการอัปเดตเพื่อรวมการคำนวณอัตโนมัติของอัตราส่วนความน่าจะเป็น (LRs) ในผลลัพธ์ของ ANOVAs ความคิดคือการให้ LR สำหรับแต่ละผลที่คล้ายกับการทดสอบของผลกระทบที่ ANOVA ประสบความสำเร็จ ตัวอย่างเช่น LR สำหรับเอฟเฟ็กต์หลักหมายถึงการเปรียบเทียบโมเดลโมฆะกับโมเดลที่มีเอฟเฟกต์หลัก LR สำหรับการโต้ตอบแสดงถึงการเปรียบเทียบของโมเดลที่มีเอฟเฟกต์หลักทั้งสองส่วนประกอบกับโมเดลที่มีเอฟเฟกต์หลักและปฏิสัมพันธ์ของพวกเขา ฯลฯ ตอนนี้ความเข้าใจของฉันเกี่ยวกับการคำนวณ LR มาจากGlover &amp; Dixon ( PDF ) ซึ่งครอบคลุมการคำนวณพื้นฐานรวมถึงการแก้ไขความซับซ้อนและภาคผนวกของBortolussi &amp; Dixon ( ภาคผนวก PDF ) ซึ่งครอบคลุมการคำนวณที่เกี่ยวข้องกับตัวแปรการวัดซ้ำ เพื่อทดสอบความเข้าใจของฉันฉันได้พัฒนาสเปรดชีตนี้ซึ่งใช้ dfs &amp; SS จากตัวอย่าง ANOVA (สร้างจากการออกแบบ 2 * 2 * 3 * 4 โดยใช้ข้อมูลปลอม) และขั้นตอนในการคำนวณ …

3
ทำไมจึงต้องใช้ REML (แทน ML) เพื่อเลือกระหว่างรุ่น var-covar ที่ซ้อนกัน?
คำอธิบายต่าง ๆ เกี่ยวกับการเลือกแบบจำลองที่มีผลต่อการสุ่มของตัวแบบเชิงเส้นผสมแนะนำให้ใช้ REML ฉันรู้ความแตกต่างระหว่าง REML และ ML ในบางระดับ แต่ฉันไม่เข้าใจว่าทำไมควรใช้ REML เพราะ ML นั้นมีความเอนเอียง ตัวอย่างเช่นการใช้ LRT กับพารามิเตอร์ความแปรปรวนของแบบจำลองการแจกแจงแบบปกติโดยใช้ ML นั้นเป็นความผิดหรือไม่? ฉันไม่เข้าใจว่าทำไมการมีความเป็นกลางจึงสำคัญกว่าการเป็น ML ในการเลือกรุ่น ฉันคิดว่าคำตอบที่ดีที่สุดต้องเป็น "เพราะการเลือกแบบจำลองทำงานได้ดีกับ REML มากกว่ากับ ML" แต่ฉันอยากรู้มากกว่านั้นเล็กน้อย ฉันไม่ได้อ่าน derivations ของ LRT และ AIC (ฉันไม่ดีพอที่จะเข้าใจพวกเขาอย่างละเอียด) แต่ถ้าใช้ REML อย่างชัดเจนในการอ้างอิงเพียงแค่รู้ว่ามันจะเพียงพอจริง ๆ (เช่น n &lt;- 100 a &lt;- 10 b &lt;- 1 alpha …

2
พวกเราเป็นผู้ใช้ชีวิตประจำวันเพียงแค่บอกเป็นนัย / ไม่เต็มใจเบย์หรือไม่?
สำหรับปัญหาการอนุมานที่กำหนดเรารู้ว่าวิธีการแบบเบย์มักจะแตกต่างกันทั้งในรูปแบบและผลที่ได้จากวิธี fequentist ผู้ใช้บ่อย (มักจะรวมถึงฉัน) มักจะชี้ให้เห็นว่าวิธีการของพวกเขาไม่จำเป็นต้องมีก่อนและด้วยเหตุนี้ "ข้อมูลที่ขับเคลื่อน" มากกว่า "การตัดสินใจที่ขับเคลื่อน" แน่นอนว่า Bayesian สามารถชี้ไปที่นักบวชที่ไม่ให้ข้อมูลหรือใช้ประโยชน์ได้เพียงแค่ใช้การกระจายก่อนหน้านี้จริงๆ ความกังวลของฉันโดยเฉพาะอย่างยิ่งหลังจากที่รู้สึกถึงความอับอายขายหน้าในความเป็นกลางของฉันนั่นอาจเป็นวิธีการ "วัตถุประสงค์" ของฉันที่อ้างว่าเป็นสูตรในกรอบของ Bayesian แม้ว่าจะมีรูปแบบข้อมูลและรูปแบบแปลก ๆ ในกรณีนั้นฉันเพิ่งรู้ตัวถึงความอลหม่านก่อนหน้านี้อย่างมีความสุขและแบบจำลองวิธีการที่ใช้บ่อยของฉันบอกเป็นนัย ๆ ? ถ้าชาวเบย์ชี้ให้เห็นการกำหนดเช่นนี้ฉันคิดว่าปฏิกิริยาแรกของฉันคือการพูดว่า "ก็ดีที่คุณสามารถทำได้ แต่นั่นไม่ใช่วิธีที่ฉันคิดเกี่ยวกับปัญหา!" อย่างไรก็ตามใครสนใจว่าฉันคิดอย่างไรหรือฉันกำหนดมันอย่างไร หากกระบวนการของฉันมีค่าทางสถิติ / เชิงคณิตศาสตร์เทียบเท่ากับแบบจำลอง Bayesian บางรุ่นฉันก็จะอนุมาน Bayesian โดยไม่เจตนา ( โดยไม่เจตนา !) คำถามจริงด้านล่าง การตระหนักถึงสิ่งนี้ได้ทำลายสิ่งล่อใจใด ๆ แต่ผมไม่แน่ใจว่าถ้าเป็นความจริงที่ว่ากระบวนทัศน์แบบเบย์สามารถรองรับขั้นตอนการ frequentist ทั้งหมด (อีกครั้งให้คชกรรมเลือกที่เหมาะสมน่าจะเป็นก่อน) ฉันรู้ว่าการสนทนาเป็นเท็จ ฉันถามสิ่งนี้เพราะฉันเพิ่งโพสต์คำถามเกี่ยวกับการอนุมานตามเงื่อนไขซึ่งนำฉันไปสู่บทความต่อไปนี้: ที่นี่ (ดู 3.9.5,3.9.6) พวกเขาชี้ให้เห็นผลลัพธ์ที่เป็นที่รู้จักกันดีของบาซึว่าสามารถมีได้มากกว่าหนึ่งสถิติขึ้นทะเบียนขอร้องคำถามที่ "ส่วนย่อยที่เกี่ยวข้อง" มีความเกี่ยวข้องมากที่สุด ยิ่งแย่ไปกว่านั้นพวกเขาแสดงตัวอย่างที่สองถึงแม้ว่าคุณจะมีสถิติพิเศษที่ไม่ซ้ำกัน …

2
ทำไม lrtest () ไม่ตรงกับ anova (test =“ LRT”)
ฉันกำลังมองหาวิธีที่จะทำการทดสอบอัตราส่วนความน่าจะเป็นใน R เพื่อเปรียบเทียบแบบจำลองที่พอดี ฉันเขียนมันเองก่อนจากนั้นก็พบว่าทั้งanova()ฟังก์ชั่นเริ่มต้นและlrtest()ในlmtestแพ็คเกจ เมื่อฉันตรวจสอบanova()จะสร้างค่า p ที่แตกต่างกันเล็กน้อยจากอีกสองเสมอแม้ว่าพารามิเตอร์ 'test' จะถูกตั้งค่าเป็น "LRT" มีการanova()ปฏิบัติจริงบางอย่างที่แตกต่างกันการทดสอบอย่างละเอียดหรือฉันไม่เข้าใจว่าอะไร? แพลตฟอร์ม: R 3.2.0 ทำงานบน Linux Mint 17, lmtestรุ่น 0.9-33 รหัสตัวอย่าง: set.seed(1) # Reproducibility n=1000 y = runif(n, min=-1, max=1) a = factor(sample(1:5, size=n, replace=T)) b = runif(n) # Make y dependent on the other two variables y = y …

1
การทดสอบอัตราส่วนความน่าจะเป็น - lmer R - โมเดลที่ไม่ซ้อนกัน
ฉันกำลังตรวจสอบงานบางอย่างและได้พบกับสิ่งต่อไปนี้ซึ่งดูเหมือนว่าผิดสำหรับฉัน รุ่นสองแบบผสมถูกติดตั้ง (ใน R) โดยใช้ lmer แบบจำลองนั้นไม่ซ้อนกันและถูกเปรียบเทียบโดยการทดสอบอัตราส่วนความน่าจะเป็น ในระยะสั้นนี่คือตัวอย่างที่ทำซ้ำได้ของสิ่งที่ฉันมี: set.seed(105) Resp = rnorm(100) A = factor(rep(1:5,each=20)) B = factor(rep(1:2,times=50)) C = rep(1:4, times=25) m1 = lmer(Resp ~ A + (1|C), REML = TRUE) m2 = lmer(Resp ~ B + (1|C), REML = TRUE) anova(m1,m2) เท่าที่ฉันเห็นสามารถlmerใช้เพื่อคำนวณความน่าจะเป็นและบันทึกanovaการทดสอบความแตกต่างระหว่างแบบจำลองที่ใช้ไคสแควร์กับองศาอิสระทั่วไป ดูเหมือนจะไม่ถูกต้องสำหรับฉัน ถ้ามันถูกต้องไม่มีใครทราบถึงการอ้างอิงใด ๆ ที่แสดงความชอบธรรมนี้หรือไม่? ฉันตระหนักถึงวิธีการที่ใช้แบบจำลอง (Paper …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.