คำถามติดแท็ก prior

ในสถิติแบบเบย์การกระจายก่อนหน้านี้ทำให้ข้อมูลหรือความรู้เป็นระเบียบ (มักเป็นแบบอัตนัย) ซึ่งมีอยู่ก่อนตัวอย่างจะเห็นในรูปแบบของการแจกแจงความน่าจะเป็น การกระจายที่มีการแพร่กระจายขนาดใหญ่จะถูกใช้เมื่อมีความรู้เพียงเล็กน้อยเกี่ยวกับพารามิเตอร์ในขณะที่การกระจายก่อนหน้าแคบลงแสดงถึงระดับของข้อมูลที่มากขึ้น

4
สถิติแบบเบย์จัดการกับการไม่มีตัวตนอย่างไร
คำถามนี้ได้รับแรงบันดาลใจจากการโต้ตอบสองครั้งล่าสุดที่ฉันมีหนึ่งที่นี่ในประวัติย่อส่วนอีกเรื่องที่economics.se ที่นั่นผมได้โพสต์คำตอบไปที่รู้จักกันดี "ซองจดหมาย Paradox" (ใจคุณไม่เป็น"คำตอบที่ถูกต้อง" แต่เป็นคำตอบที่ไหลออกมาจากสมมติฐานที่เฉพาะเจาะจงเกี่ยวกับโครงสร้างของสถานการณ์) หลังจากนั้นสักครู่ผู้ใช้โพสต์ความคิดเห็นที่สำคัญและฉันมีส่วนร่วมในการสนทนาพยายามที่จะเข้าใจประเด็นของเขา มันก็เห็นได้ชัดว่าเขาคิดวิธีคชกรรมและเก็บไว้พูดคุยเกี่ยวกับไพรเออร์และอื่นแล้วมัน dawned กับฉันและผมพูดกับตัวเอง: "รอนาทีที่บอกอะไรเกี่ยวกับเรื่องใดก่อน?ในทางที่ผมได้สูตร ปัญหาไม่มีนักบวชอยู่ที่นี่พวกเขาแค่ไม่ป้อนรูปภาพและไม่จำเป็นต้อง " เมื่อเร็ว ๆ นี้ฉันเห็นคำตอบนี้ในประวัติย่อเกี่ยวกับความหมายของความเป็นอิสระทางสถิติ ฉันให้ความเห็นกับผู้เขียนว่าประโยคของเขา "... ถ้าเหตุการณ์มีความเป็นอิสระทางสถิติแล้ว (โดยคำจำกัดความ) เราไม่สามารถเรียนรู้เกี่ยวกับสิ่งหนึ่งจากการสังเกตอื่น ๆ " ผิดอย่างโจ๋งครึ่ม ในการแลกเปลี่ยนความคิดเห็นเขายังคงกลับไปที่ปัญหาของ (คำพูดของเขา) "การเรียนรู้" จะไม่หมายถึงการเปลี่ยนความเชื่อของเราเกี่ยวกับสิ่งที่อยู่บนพื้นฐานของการสังเกตของผู้อื่นหรือไม่ถ้าเป็นเช่นนั้นไม่เป็นอิสระ (นิยาม) แยกแยะเรื่องนี้? อีกครั้งเห็นได้ชัดว่าเขาคิดแบบเบย์และเขาคิดว่าตนเองชัดเจนว่าเราเริ่มต้นด้วยความเชื่อบางอย่าง (เช่นก่อนหน้า)แล้วปัญหาคือวิธีที่เราสามารถเปลี่ยน / อัปเดตพวกเขา แต่ความเชื่อครั้งแรกเกิดขึ้นได้อย่างไร? เนื่องจากวิทยาศาสตร์จะต้องสอดคล้องกับความเป็นจริงฉันทราบว่าสถานการณ์มีอยู่ว่ามนุษย์มีส่วนเกี่ยวข้องไม่มีนักบวช (ฉันมีสิ่งหนึ่งที่เดินเข้าสู่สถานการณ์โดยไม่เคยมีมาก่อน - และโปรดอย่าเถียงว่าฉันมีนักบวช แต่ฉัน เพียงแค่ไม่ได้ตระหนักถึงมันขอให้ตัวเองจิตปลอมที่นี่) เนื่องจากฉันเคยได้ยินคำว่า "นักบวชที่ไม่รู้เรื่อง" ฉันจึงแบ่งคำถามของฉันออกเป็นสองส่วนและฉันค่อนข้างมั่นใจว่าผู้ใช้ที่นี่ที่เข้าใจในทฤษฎี Bayesian รู้ว่าฉันกำลังจะถามอะไร: คำถามที่ 1: การไม่มีตัวตนที่เทียบเท่าก่อนหน้านี้ (ในแง่ทฤษฎีที่เข้มงวด) …

2
การกระจายก่อนหน้านี้สามารถ / ควรใช้สำหรับความแปรปรวนในตัวแบบเบย์เอซันแบบลำดับชั้นเมื่อความแปรปรวนเฉลี่ยมีความน่าสนใจอย่างไร
ในกระดาษของเขาอ้างกันอย่างแพร่หลายกระจายก่อนหน้าสำหรับพารามิเตอร์ความแปรปรวนในรูปแบบลำดับชั้น (916 การอ้างอิงจนถึง Google Scholar) Gelman เสนอว่าการแจกแจงก่อนหน้าแบบไม่ให้ข้อมูลที่ดีสำหรับความแปรปรวนในแบบจำลอง Bayesian แบบลำดับชั้นคือการกระจายแบบสม่ำเสมอและการกระจายครึ่งหนึ่ง หากฉันเข้าใจสิ่งที่ถูกต้องสิ่งนี้จะทำงานได้ดีเมื่อเป็นพารามิเตอร์ตำแหน่ง (เช่นค่าเฉลี่ย) เป็นสิ่งที่น่าสนใจหลัก บางครั้งพารามิเตอร์ความแปรปรวนเป็นที่สนใจหลักอย่างไรก็ตามเช่นเมื่อวิเคราะห์ข้อมูลการตอบสนองของมนุษย์จากงานเวลาหมายถึงความแปรปรวนของเวลามักจะวัดที่น่าสนใจ ในกรณีเหล่านั้นมันไม่ชัดเจนสำหรับฉันว่าความสามารถแปรผันตามลำดับชั้นได้อย่างไรเช่นการแจกแจงแบบเดียวกันเนื่องจากฉันหลังจากการวิเคราะห์ต้องการได้รับความน่าเชื่อถือของความแปรปรวนเฉลี่ยทั้งในระดับผู้เข้าร่วมและในระดับกลุ่ม คำถามของฉันคือ: การกระจายแบบใดที่แนะนำเมื่อสร้างแบบจำลองแบบเบย์แบบลำดับชั้นเมื่อความแปรปรวนของข้อมูลเป็นความสนใจหลัก ฉันรู้ว่าการแจกแจงแกมมาสามารถแก้ไขได้โดยระบุค่าเฉลี่ยและ SD ยกตัวอย่างเช่นแบบลำดับชั้นด้านล่างเป็นจากหนังสือ Kruschke ของการทำเบส์วิเคราะห์ข้อมูล แต่ Gelman สรุปปัญหาบางอย่างกับการกระจายแกมม่าในบทความของเขาและฉันจะขอบคุณสำหรับคำแนะนำทางเลือกโดยเฉพาะอย่างยิ่งทางเลือกที่ไม่ยากที่จะทำงานใน BUGS / JAGS

2
สันถดถอย - การตีความแบบเบย์
ฉันได้ยินมาว่าการถดถอยของสันเขานั้นสามารถได้มาจากค่าเฉลี่ยของการแจกแจงหลังถ้าหากได้รับการคัดเลือกอย่างเพียงพอ สัญชาตญาณว่าข้อ จำกัด ตามที่กำหนดไว้ในสัมประสิทธิ์การถดถอยโดยก่อนหน้านี้ (เช่นการแจกแจงแบบปกติมาตรฐานประมาณ 0) เหมือนกัน / แทนที่การลงโทษที่กำหนดไว้ในขนาดกำลังสองของสัมประสิทธิ์หรือไม่? ก่อนหน้านี้จะต้องเป็นแบบเกาส์สำหรับการเทียบเท่านี้จะถือ?

3
เหตุใดจึงไม่มีใครใช้ตัวจําแนกแบบหลายคนของ Bayesian Naive Bayes?
ดังนั้นในการสร้างแบบจำลองข้อความ (ที่ไม่ได้รับอนุญาต) ดังนั้น Latent Dirichlet Allocation (LDA) จึงเป็นแบบจำลอง Bayesian ของ Probabilistic Latent Semantic Analysis (PLSA) เป็นหลัก LDA = PLSA + Dirichlet ก่อนพารามิเตอร์ ความเข้าใจของฉันคือตอนนี้ LDA เป็นอัลกอริธึมอ้างอิงและนำไปใช้ในแพ็คเกจต่าง ๆ ในขณะที่ PLSA ไม่ควรใช้อีก แต่ในการจัดหมวดหมู่ข้อความ (ภายใต้การดูแล) เราสามารถทำสิ่งเดียวกันสำหรับตัวจําแนกหลายกลุ่ม Naive Bayes และวาง Dirichlet ไว้เหนือพารามิเตอร์ แต่ฉันไม่คิดว่าฉันจะเคยเห็นใครทำอย่างนั้นและเวอร์ชั่น "พอยต์ประมาณ" ของ Naive Bayes multinomial ดูเหมือนจะเป็นเวอร์ชั่นที่ติดตั้งในแพ็คเกจส่วนใหญ่ มีเหตุผลอะไรบ้าง?

1
สัญชาตญาณของตัวอย่างที่แลกเปลี่ยนได้ภายใต้สมมติฐานว่างคืออะไร
การทดสอบการเปลี่ยนรูป (เรียกอีกอย่างว่าการทดสอบแบบสุ่มการทดสอบแบบสุ่มอีกครั้งหรือการทดสอบที่แน่นอน) มีประโยชน์มากและมีประโยชน์เมื่อสมมติฐานของการแจกแจงปกติที่ต้องการโดยตัวอย่างเช่นt-testไม่พบและเมื่อการเปลี่ยนแปลงของค่าโดยการจัดอันดับ การทดสอบแบบไม่มีพารามิเตอร์Mann-Whitney-U-testจะนำไปสู่การสูญเสียข้อมูลมากขึ้น อย่างไรก็ตามไม่ควรมองข้ามสมมุติฐานข้อเดียวและข้อเดียวเพียงข้อเดียวเมื่อใช้การทดสอบชนิดนี้คือข้อสมมติฐานของความสามารถแลกเปลี่ยนได้ของตัวอย่างภายใต้สมมติฐานว่าง เป็นที่น่าสังเกตว่าวิธีการแบบนี้สามารถใช้ได้เมื่อมีตัวอย่างมากกว่าสองตัวอย่างเช่นสิ่งที่นำไปใช้ในcoinแพ็คเกจ R คุณช่วยกรุณาใช้ภาษาที่เป็นรูปเป็นร่างหรือปรีชาเชิงแนวคิดในภาษาอังกฤษธรรมดาเพื่อแสดงสมมติฐานนี้ได้หรือไม่? นี่จะมีประโยชน์มากในการอธิบายปัญหาที่ถูกมองข้ามในหมู่ผู้ที่ไม่ใช่นักสถิติเช่นฉัน หมายเหตุ: จะเป็นประโยชน์อย่างมากหากพูดถึงกรณีที่การใช้การทดสอบการเปลี่ยนแปลงไม่ถือหรือไม่ถูกต้องภายใต้สมมติฐานเดียวกัน ปรับปรุง: สมมติว่าฉันมี 50 วิชาที่รวบรวมจากคลินิกท้องถิ่นในเขตของฉันโดยการสุ่ม พวกเขาถูกสุ่มให้รับยาหรือยาหลอกในอัตราส่วน 1: 1 พวกเขาทั้งหมดถูกวัดสำหรับ Paramerter 1 Par1ที่ V1 (พื้นฐาน), V2 (3 เดือนต่อมา) และ V3 (1 ปีต่อมา) วิชาทั้งหมด 50 กลุ่มสามารถแบ่งเป็น 2 กลุ่มตามคุณสมบัติ A; ค่าบวก = 20 และค่าลบ = 30 นอกจากนี้ยังสามารถจัดกลุ่มย่อยได้อีก 2 กลุ่มตามคุณลักษณะ B; B positive = …
15 hypothesis-testing  permutation-test  exchangeability  r  statistical-significance  loess  data-visualization  normal-distribution  pdf  ggplot2  kernel-smoothing  probability  self-study  expected-value  normal-distribution  prior  correlation  time-series  regression  heteroscedasticity  estimation  estimators  fisher-information  data-visualization  repeated-measures  binary-data  panel-data  mathematical-statistics  coefficient-of-variation  normal-distribution  order-statistics  regression  machine-learning  one-class  probability  estimators  forecasting  prediction  validation  finance  measurement-error  variance  mean  spatial  monte-carlo  data-visualization  boxplot  sampling  uniform  chi-squared  goodness-of-fit  probability  mixture  theory  gaussian-mixture  regression  statistical-significance  p-value  bootstrap  regression  multicollinearity  correlation  r  poisson-distribution  survival  regression  categorical-data  ordinal-data  ordered-logit  regression  interaction  time-series  machine-learning  forecasting  cross-validation  binomial  multiple-comparisons  simulation  false-discovery-rate  r  clustering  frequency  wilcoxon-mann-whitney  wilcoxon-signed-rank  r  svm  t-test  missing-data  excel  r  numerical-integration  r  random-variable  lme4-nlme  mixed-model  weighted-regression  power-law  errors-in-variables  machine-learning  classification  entropy  information-theory  mutual-information 

2
แบน, คอนจูเกต, และไฮเปอร์ไพรเมอร์ พวกเขาคืออะไร
ฉันกำลังอ่านเกี่ยวกับวิธีการแบบเบย์ในการคำนวณวิวัฒนาการโมเลกุลของหยาง ในหัวข้อที่ 5.2 พูดถึงนักบวช นี่อาจเป็นการขอให้มีการพูดเกินจริง แต่มีคนอธิบายความแตกต่างระหว่างนักบวชประเภทนี้และวิธีการที่มีผลต่อผลลัพธ์ของการวิเคราะห์ / การตัดสินใจที่ฉันจะทำในระหว่างกระบวนการวิเคราะห์แบบเบย์ (ฉันไม่ใช่นักสถิติและฉันเพิ่งเริ่มออกเดินทางเพื่อเรียนรู้การวิเคราะห์แบบเบย์ดังนั้นยิ่งเป็นคนธรรมดามากเท่าไรก็ยิ่งดี)
15 bayesian  prior 

2
พารามิเตอร์ที่ไม่มีตัวคั่นที่กำหนดใน Stan
ผมได้เริ่มต้นเพียงเพื่อเรียนรู้ที่จะใช้สแตนrstanและ นอกจากว่าฉันมักจะสับสนเกี่ยวกับวิธีการทำงานของ JAGS / BUGS ฉันคิดว่าคุณต้องกำหนดการแจกจ่ายก่อนหน้าบางชนิดสำหรับพารามิเตอร์ทุกตัวในโมเดลที่จะดึงมา ดูเหมือนว่าคุณไม่จำเป็นต้องทำสิ่งนี้ใน Stan ตามเอกสารประกอบของมัน นี่คือรูปแบบตัวอย่างที่พวกเขาให้ที่นี่ data { int<lower=0> J; // number of schools real y[J]; // estimated treatment effects real<lower=0> sigma[J]; // s.e. of effect estimates } parameters { real theta[J]; real mu; real<lower=0> tau; } model { theta ~ normal(mu, tau); y ~ normal(theta, …

2
การกระจายก่อนดีสำหรับดีกรีอิสระในการกระจายคืออะไร?
ฉันต้องการใช้ที่การกระจายเพื่อส่งคืนสินทรัพย์ช่วงเวลาสั้น ๆ ในโมเดลแบบเบย์ ฉันต้องการประเมินทั้งองศาอิสระ (พร้อมกับพารามิเตอร์อื่น ๆ ในโมเดลของฉัน) สำหรับการแจกแจง ฉันรู้ว่าผลตอบแทนของสินทรัพย์นั้นไม่ปกติ แต่ฉันไม่รู้มากไปกว่านั้น อะไรคือการแจกแจงก่อนที่เหมาะสมและให้ข้อมูลอย่างละเอียดสำหรับองศาอิสระในโมเดลดังกล่าว?

1
Jeffreys ก่อนหน้าสำหรับพารามิเตอร์หลายตัว
ในบางกรณี Jeffreys ก่อนหน้าสำหรับโมเดลหลายมิติเต็มรูปแบบจะถูกพิจารณาว่าไม่เพียงพอนี่เป็นตัวอย่างกรณีใน: (โดยที่ ε ∼ N ( 0 , σ 2 ) , โดยมี μและ σไม่ทราบ) โดยที่ก่อนหน้านี้ต้องการ (สำหรับ Jeffreys เต็มก่อนหน้า π ( μ , σ ) ∝ σ - 2 ): p ( μ , σ ) = π ( μ ) ⋅ π ( σ ) อัลฟ่าσ - …

2
การทำแบบเบย์ก่อนจากผลลัพธ์ที่พบบ่อย
เราควรจะเปลี่ยนผลการค้นหาเป็นประจำไปสู่ ​​Bayesian ได้อย่างไร? พิจารณาสถานการณ์ทั่วไปที่น่าสนใจต่อไปนี้: ทำการทดลองในอดีตและผลลัพธ์ของพารามิเตอร์บางอย่างถูกวัด การวิเคราะห์ทำด้วยวิธีการที่ใช้บ่อย ช่วงความเชื่อมั่นสำหรับได้รับในผลลัพธ์ϕφϕ\phiφϕ\phi ตอนนี้ผมกำลังทำบางการทดสอบใหม่ที่ฉันต้องการที่จะวัดค่าพารามิเตอร์อื่น ๆ บางพูดทั้งและ\การทดลองของฉันแตกต่างจากการศึกษาก่อนหน้า --- มันไม่ได้ใช้วิธีการเดียวกัน ผมอยากจะทำวิเคราะห์คชกรรมและดังนั้นผมจะต้องไพรเออร์ขึ้นในวันที่และ\ϕ θ ϕθθ\thetaφϕ\phiθθ\thetaφϕ\phi ไม่มีการวัดก่อนหน้านี้ที่ได้รับการดำเนินการดังนั้นฉันวาง uninformative (พูดว่าชุดของมัน) ก่อนที่มัน θθ\theta ดังที่กล่าวไว้มีผลลัพธ์ก่อนหน้าสำหรับกำหนดเป็นช่วงความมั่นใจ ในการใช้ผลลัพธ์นั้นในการวิเคราะห์ปัจจุบันของฉันฉันจะต้องแปลผลลัพธ์นักการประจำก่อนหน้านี้เป็นข้อมูลก่อนการวิเคราะห์ของฉัน φϕ\phi ตัวเลือกหนึ่งที่ไม่สามารถใช้งานได้ในสถานการณ์จำลองนี้คือการทำซ้ำการวิเคราะห์ก่อนหน้าซึ่งนำไปสู่การวัดในแบบเบย์ ถ้าฉันสามารถทำสิ่งนี้จะมีหลังจากการทดลองก่อนหน้านี้ที่ฉันจะใช้เป็นของฉันก่อนหน้านี้และจะไม่มีปัญหาϕφϕ\phi φϕ\phi ฉันควรแปล CI ที่ใช้บ่อยเป็นการแจกแจงก่อนแบบเบย์สำหรับการวิเคราะห์ของฉันได้อย่างไร หรือกล่าวอีกนัยหนึ่งฉันจะแปลผลลัพธ์ที่พบบ่อยที่สุดในให้เป็นหลังที่ที่ฉันจะใช้ก่อนหน้านี้ในการวิเคราะห์ได้อย่างไรϕφϕ\phiφϕ\phi ข้อมูลเชิงลึกหรือการอ้างอิงใด ๆ ที่กล่าวถึงปัญหาประเภทนี้ยินดีต้อนรับ

2
คุณสังเกตหัว k จากการโยน n เหรียญยุติธรรมหรือไม่
ฉันถูกถามคำถามนี้ด้วยในการสัมภาษณ์ มีคำตอบ "ถูกต้อง" หรือไม่?( n , k ) = ( 400 , 220 )(n,k)=(400,220)(n, k) = (400, 220) สมมติกลมๆมี IID และความน่าจะเป็นของหัวคือpการกระจายจำนวนหัวในการทอย 400 ครั้งควรใกล้เคียงกับ Normal (200, 10 ^ 2) ดังนั้น 220 หัวเป็น 2 ส่วนเบี่ยงเบนมาตรฐานจากค่าเฉลี่ย ความน่าจะเป็นของการสังเกตผลลัพธ์ดังกล่าว (เช่น 2 SDs เพิ่มเติมจากค่าเฉลี่ยในทิศทางใดทิศทางหนึ่ง) น้อยกว่า 5% เล็กน้อยp = 0.5p=0.5p=0.5 ผู้สัมภาษณ์บอกฉันว่า "ถ้าฉันสังเกตอะไร> = 2 SDs จากค่าเฉลี่ยฉันสรุปได้ว่ามีบางอย่างเกิดขึ้นฉันจะพนันกับเหรียญที่ยุติธรรม" นั่นคือเหตุผล …

1
เมื่อใดที่ฉันควรกังวลเกี่ยวกับ Jeffreys-Lindley บุคคลที่ผิดธรรมดาในตัวเลือกแบบจำลอง Bayesian
ฉันกำลังพิจารณาที่มีขนาดใหญ่ ( แต่ จำกัด ) พื้นที่ของรูปแบบที่แตกต่างกันของความซับซ้อนซึ่งผมสำรวจโดยใช้RJMCMC ก่อนหน้าเกี่ยวกับเวกเตอร์พารามิเตอร์สำหรับแต่ละรุ่นมีข้อมูลค่อนข้าง ในกรณีใด (ถ้ามี) ฉันควรกังวลเกี่ยวกับJeffreys-Lindley บุคคลที่ผิดธรรมดานิยมรุ่นที่ง่ายกว่าเมื่อหนึ่งในแบบจำลองที่ซับซ้อนมากขึ้นจะเหมาะสมกว่าหรือไม่ มีตัวอย่างง่ายๆที่เน้นปัญหาของความขัดแย้งในการเลือกตัวแบบเบย์หรือไม่? ฉันได้อ่านบทความไม่กี่ฉบับนั่นคือบล็อกของซีอานและบล็อกของแอนดรูเจลแมนแต่ฉันยังไม่เข้าใจปัญหามากนัก

3
Jeffreys ก่อนหน้าสำหรับการแจกแจงแบบปกติพร้อมค่าเฉลี่ยและความแปรปรวนที่ไม่รู้จัก
ฉันอ่านค่าการกระจายก่อนหน้านี้และฉันคำนวณ Jeffreys ก่อนหน้านี้สำหรับตัวอย่างของตัวแปรสุ่มแบบกระจายที่มีค่าเฉลี่ยไม่ทราบและความแปรปรวนที่ไม่รู้จัก จากการคำนวณของฉันรายการต่อไปนี้ของ Jeffreys ก่อนหน้านี้: ที่นี่เป็นเมทริกซ์ข้อมูลของฟิชเชอร์ ผมp ( μ , σ2) = de t ( ฉัน)-----√= de t ( 1 / σ2001 / ( 2 σ4))------------------√= 12 σ6----√∝ 1σ3.พี(μ,σ2)=dอีเสื้อ(ผม)=dอีเสื้อ(1/σ2001/(2σ4))=12σ6α1σ3. p(\mu,\sigma^2)=\sqrt{det(I)}=\sqrt{det\begin{pmatrix}1/\sigma^2 & 0 \\ 0 & 1/(2\sigma^4)\end{pmatrix}}=\sqrt{\frac{1}{2\sigma^6}}\propto\frac{1}{\sigma^3}.ผมผมI อย่างไรก็ตามฉันได้อ่านสิ่งพิมพ์และเอกสารที่ระบุด้วย p ( μ , σ2) ∝ 1 / σ2พี(μ,σ2)α1/σ2p(\mu,\sigma^2)\propto 1/\sigma^2ดูหัวข้อ 2.2 ในKass …

1
ทำไม LKJcorr เป็นเมทริกซ์สหสัมพันธ์ที่ดีมาก่อน?
ฉันกำลังอ่านบทที่ 13 "การผจญภัยในความแปรปรวนร่วม" ในหนังสือ ( สุดยอด ) การทบทวนทางสถิติโดย Richard McElreathซึ่งเขานำเสนอรูปแบบลำดับชั้นดังต่อไปนี้: ( Rเป็นเมทริกซ์สหสัมพันธ์) ผู้เขียนอธิบายว่าLKJcorrมันเป็นข้อมูลที่อ่อนแอก่อนที่จะทำงานเป็น normalizing ก่อนสำหรับเมทริกซ์ความสัมพันธ์ แต่ทำไมถึงเป็นเช่นนั้น? มีการLKJcorrกระจายแบบใดที่ทำให้เป็นแบบอย่างที่ดีสำหรับเมทริกซ์สหสัมพันธ์? มีนักบวชที่ดีคนอื่น ๆ ที่ใช้ในการฝึกอบรมสำหรับความสัมพันธ์?

2
โอกาสที่เหมาะสมก่อนและยกกำลังที่เหมาะสมสามารถนำไปสู่การหลังที่ไม่เหมาะสม?
(คำถามนี้ได้รับแรงบันดาลใจจากความคิดเห็นนี้จากซีอาน ) เป็นที่ทราบกันดีว่าถ้าการกระจายก่อนเป็นที่เหมาะสมและความน่าจะเป็นเป็นอย่างดีที่กำหนดไว้แล้วกระจายหลังมีความเหมาะสมเกือบแน่นอนπ(θ)π(θ)\pi(\theta)L(θ|x)L(θ|x)L(\theta | x)π(θ|x)∝π(θ)L(θ|x)π(θ|x)∝π(θ)L(θ|x)\pi(\theta|x)\propto \pi(\theta) L(\theta|x) ในบางกรณีเราใช้ความน่าจะเป็นแบบอารมณ์หรือแบบ exponentiated แทนซึ่งนำไปสู่การหลอกหลัง π~(θ|x)∝π(θ)L(θ|x)απ~(θ|x)∝π(θ)L(θ|x)α\tilde\pi(\theta|x)\propto \pi(\theta) L(\theta|x)^\alpha สำหรับ (ตัวอย่างเช่นนี้อาจมีข้อได้เปรียบในการคำนวณ)α>0α>0\alpha>0 ในการตั้งค่านี้เป็นไปได้หรือไม่ที่จะมีมาก่อน แต่มีหลอกหลอกที่ไม่เหมาะสม?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.