คำถามติดแท็ก mcmc

มาร์คอฟเชนมอนติคาร์โล (MCMC) หมายถึงคลาสของวิธีการสร้างตัวอย่างจากการแจกแจงเป้าหมายโดยการสร้างตัวเลขสุ่มจากมาร์คอฟเชนซึ่งการกระจายแบบคงที่คือการกระจายเป้าหมาย โดยทั่วไปแล้ววิธีการ MCMC จะใช้เมื่อวิธีการเพิ่มเติมโดยตรงสำหรับการสร้างหมายเลขสุ่ม (เช่นวิธีการกลับรายการ) เป็นไปไม่ได้ วิธีแรกของ MCMC คืออัลกอริทึม Metropolis ซึ่งดัดแปลงในภายหลังเพื่ออัลกอริทึม Metropolis-Hastings

3
เหตุใดพลวัตของแฮมิลตันจึงดีกว่าข้อเสนอการเดินแบบสุ่มใน MCMC ในบางกรณี
พลวัตแฮมิลตันมีประสิทธิภาพเหนือกว่าการเดินแบบสุ่มในอัลกอริทึม Metropolis เสมอในบางกรณี บางคนสามารถอธิบายเหตุผลด้วยคำง่าย ๆ ที่ไม่มีคณิตศาสตร์มากเกินไปได้ไหม
10 mcmc 

2
วิธีตัวอย่างจากการกระจายแบบไม่ต่อเนื่องในจำนวนเต็มไม่ลบ
ฉันมีการกระจายแบบไม่ต่อเนื่องโดยที่เป็นค่าคงที่ที่รู้จัก:α,βα,β\alpha,\beta p(x;α,β)=Beta(α+1,β+x)Beta(α,β)for x=0,1,2,…p(x;α,β)=Beta(α+1,β+x)Beta(α,β)for x=0,1,2,… p(x;\alpha,\beta) = \frac{\text{Beta}(\alpha+1, \beta+x)}{\text{Beta}(\alpha,\beta)} \;\;\;\;\text{for } x = 0,1,2,\dots มีวิธีใดบ้างในการสุ่มตัวอย่างอย่างมีประสิทธิภาพจากการกระจายนี้

2
การสุ่มตัวอย่างจากมาร์คอฟคือ "ดีที่สุด" สำหรับการสุ่มตัวอย่าง Monte Carlo หรือไม่ มีรูปแบบทางเลือกอื่น ๆ หรือไม่?
มาร์คอฟเชนมอนติคาร์โลเป็นวิธีการที่อิงตามเชนมาร์คอฟที่ช่วยให้เราได้รับตัวอย่าง (ในการตั้งค่ามอนติคาร์โล) จากการแจกแจงที่ไม่ได้มาตรฐานซึ่งเราไม่สามารถวาดตัวอย่างได้โดยตรง คำถามของฉันคือเหตุผลที่ห่วงโซ่มาร์คอฟเป็น "สุดยอด" สำหรับการสุ่มตัวอย่าง Monte Carlo คำถามอื่นอาจมีวิธีอื่นเช่นโซ่มาร์คอฟที่สามารถใช้สำหรับการสุ่มตัวอย่าง Monte Carlo ได้หรือไม่? ฉันรู้ (อย่างน้อยก็จากการดูวรรณกรรม) ว่า MCMC มีรากฐานทางทฤษฎีที่ลึก (ในแง่ของเงื่อนไขเช่น (a) เป็นระยะ, ความสม่ำเสมอและรายละเอียดที่สมดุล) แต่สงสัยว่ามีรูปแบบ / วิธีการที่น่าจะเป็นสำหรับ Monte การสุ่มตัวอย่าง Carlo คล้ายกับโซ่มาร์คอฟ กรุณาแนะนำฉันถ้าฉันได้สับสนบางส่วนของคำถาม (หรือถ้ามันดูเหมือนสับสนโดยสิ้นเชิง)

3
Winbugs และ MCMC อื่น ๆ โดยไม่มีข้อมูลสำหรับการเผยแพร่ก่อนหน้า
จะเกิดอะไรขึ้นเมื่อคุณไม่มีแนวคิดเกี่ยวกับการกระจายพารามิเตอร์ เราควรใช้วิธีใด เวลาส่วนใหญ่ของเรามุ่งไปที่ขีดล่างหากตัวแปรบางตัวมีอิทธิพลเหนือการมีอยู่ / ไม่มีชนิดที่แน่นอนและตัวแปรนั้นได้รับการยอมรับหรือไม่ตามความสำคัญของตัวแปร ซึ่งหมายความว่าส่วนใหญ่เราไม่ได้คิดเกี่ยวกับการแจกแจงแบบ expetcted พารามิเตอร์ควรมี มันถูกต้องหรือไม่ที่จะสมมติว่าพารามิเตอร์ทั้งหมดเป็นไปตามการแจกแจงปกติเมื่อทุกอย่างที่ฉันรู้คือว่า b1, b2, b3 และ b4 ควรแตกต่างกันระหว่าง -2 ถึง 2 และ b0 สามารถแตกต่างกันระหว่าง -5 และ 5? model { # N observations for (i in 1:N) { species[i] ~ dbern(p[i]) logit(p[i]) <- b0 + b1*var1[i] + b2*var2[i] + b3*var3[i] + b4*var4[i] } # …
10 r  bayesian  mcmc  bugs  winbugs 

1
R ตัวแปรเชิงเส้นถดถอยหมวดหมู่ "ซ่อน" ค่า
นี่เป็นเพียงตัวอย่างที่ฉันเจอหลายครั้งดังนั้นฉันจึงไม่มีข้อมูลตัวอย่าง ใช้แบบจำลองการถดถอยเชิงเส้นใน R: a.lm = lm(Y ~ x1 + x2) x1เป็นตัวแปรต่อเนื่อง x2เป็นหมวดหมู่และมีสามค่าเช่น "ต่ำ", "ปานกลาง" และ "สูง" อย่างไรก็ตามเอาต์พุตที่กำหนดโดย R จะเป็นดังนี้: summary(a.lm) Estimate Std. Error t value Pr(>|t|) (Intercept) 0.521 0.20 1.446 0.19 x1 -0.61 0.11 1.451 0.17 x2Low -0.78 0.22 -2.34 0.005 x2Medium -0.56 0.45 -2.34 0.005 ฉันเข้าใจว่า R แนะนำการเข้ารหัสแบบหลอกบางอย่างเกี่ยวกับปัจจัยดังกล่าว ( …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

4
รับโซ่ 10D MCMC ฉันจะกำหนดโหมดหลังได้อย่างไรใน R
คำถาม:ด้วยห่วงโซ่ MCMC แบบ 10 มิติสมมติว่าฉันพร้อมที่จะมอบเมทริกซ์การจับ: 100,000 ซ้ำ (แถว) โดย 10 พารามิเตอร์ (คอลัมน์) ฉันจะระบุโหมดหลังได้ดีที่สุดอย่างไร ฉันกังวลเป็นพิเศษกับหลายโหมด พื้นหลัง:ฉันคิดว่าตัวเองเป็นนักสถิติที่มีความชำนาญ แต่เมื่อเพื่อนร่วมงานถามคำถามนี้กับฉันฉันรู้สึกละอายใจที่ไม่สามารถหาคำตอบที่เหมาะสมได้ ข้อกังวลหลักคืออาจมีหลายโหมดปรากฏขึ้น แต่หากพิจารณาอย่างน้อยแปดหรือมากกว่านั้นในสิบส่วนข้อมูล ความคิดแรกของฉันคือการใช้การประมาณความหนาแน่นของเคอร์เนล แต่การค้นหาผ่าน R เปิดเผยว่าไม่มีอะไรน่ากังวลสำหรับปัญหาที่มีขนาดเกินกว่าสามมิติ เพื่อนร่วมงานได้เสนอกลยุทธ์เฉพาะกิจในสิบมิติและค้นหาสูงสุด แต่ข้อกังวลของฉันคือแบนด์วิดท์อาจนำไปสู่ปัญหาการกระจัดกระจายที่สำคัญหรือขาดความละเอียดในการแยกแยะหลายโหมด ที่กล่าวว่าฉันยินดีรับข้อเสนอแนะสำหรับคำแนะนำแบนด์วิดธ์อัตโนมัติลิงก์ไปยังตัวประมาณความหนาแน่นเคอร์เนล 10 ตัวหรือสิ่งอื่นที่คุณรู้ ความกังวลเกี่ยวกับ: เราเชื่อว่าการกระจายอาจเบ้ค่อนข้าง ดังนั้นเราต้องการระบุโหมดด้านหลังไม่ใช่วิธีหลัง เรากังวลว่าอาจมีโหมดหลังหลายโหมด หากเป็นไปได้เราต้องการคำแนะนำจาก R แต่อัลกอริทึมใด ๆ ที่จะทำตราบเท่าที่มันไม่ยากอย่างไม่น่าเชื่อที่จะใช้ ฉันเดาว่าฉันไม่ต้องการใช้ตัวประมาณความหนาแน่นของเคอร์เนลด้วยการเลือกแบนด์วิดท์อัตโนมัติตั้งแต่เริ่มต้น

1
Hamiltonian Monte Carlo: จะทำให้รู้สึกถึงข้อเสนอของ Metropolis-Hasting ได้อย่างไร
ฉันพยายามที่จะเข้าใจการทำงานภายในของ Hamiltonian Monte Carlo (HMC) แต่ไม่สามารถเข้าใจส่วนนี้ได้อย่างสมบูรณ์เมื่อเราแทนที่การรวมเวลาที่กำหนดไว้กับข้อเสนอ Metropolis-Hasting ฉันกำลังอ่านกระดาษเกริ่นนำสุดยอด A บทนำเกี่ยวกับแนวคิดของมิลโตเนียนมอนติคาร์โลโดย Michael Betancourt ดังนั้นฉันจะทำตามสัญกรณ์เดิมที่ใช้ในนั้น พื้นหลัง เป้าหมายทั่วไปของ Markov Chain Monte Carlo (MCMC) เป็นที่ใกล้เคียงกับการกระจายของตัวแปรเป้าหมายQπ( q)π(Q)\pi(q)QQq ความคิดของ HMC คือการแนะนำผู้ช่วย "โมเมนตัม" ตัวแปรร่วมกับตัวแปรเดิมที่ถูกจำลองเป็นตำแหน่ง "" คู่ตำแหน่ง - โมเมนตัมเป็นพื้นที่เฟสขยายและสามารถอธิบายได้โดยการเปลี่ยนแปลงของมิลโตเนียน ข้อต่อการกระจายสามารถเขียนได้ในแง่ของการสลายตัวของ microcanonical:พีพีpQQqπ( q, p )π(Q,พี)\pi(q, p) π( q, p ) = π(θE| E)π( E)π(Q,พี)=π(θE|E)π(E)\pi(q, p) = \pi(\theta_E | E) …
9 mcmc  monte-carlo  hmc 

1
ข้อ จำกัด MCMC / EM MCMC มากกว่า EM?
ขณะนี้ฉันเรียนรู้โมเดลเบย์แบบลำดับชั้นโดยใช้ JAGS จาก R และ pymc โดยใช้ Python ( "วิธีเบส์สำหรับแฮกเกอร์" ) ฉันสามารถรับปรีชาจากโพสต์นี้ : "คุณจะจบลงด้วยจำนวนของตัวเลขที่มีลักษณะ" ราวกับว่า "คุณมีการจัดการอย่างใดที่จะนำตัวอย่างอิสระจากการกระจายที่ซับซ้อนที่คุณต้องการรู้" มันเป็นสิ่งที่ฉันสามารถให้ความน่าจะเป็นแบบมีเงื่อนไขจากนั้นฉันสามารถสร้างกระบวนการที่ไม่มีหน่วยความจำขึ้นอยู่กับความน่าจะเป็นแบบมีเงื่อนไข เมื่อฉันสร้างกระบวนการนานพอแล้วความน่าจะเป็นร่วมจะมาบรรจบกันและจากนั้นฉันก็สามารถนำจำนวนตัวเลขมารวมกันที่ส่วนท้ายของลำดับที่สร้างขึ้น มันเหมือนกับว่าฉันเอาตัวอย่างอิสระจากการกระจายข้อต่อที่ซับซ้อน ตัวอย่างเช่นฉันสามารถสร้างฮิสโตแกรมและสามารถประมาณฟังก์ชันการแจกแจง จากนั้นปัญหาของฉันคือฉันต้องพิสูจน์ว่า MCMC มาบรรจบกันสำหรับรุ่นใดรุ่นหนึ่งหรือไม่ ฉันมีแรงจูงใจที่จะรู้สิ่งนี้เพราะก่อนหน้านี้ฉันได้เรียนรู้อัลกอริทึม EM สำหรับ GMM และ LDA (โมเดลกราฟิก) ถ้าฉันสามารถใช้อัลกอริทึม MCMC โดยไม่ต้องพิสูจน์ว่ามันมาบรรจบกันแล้วมันสามารถประหยัดเวลาได้มากกว่า EM เนื่องจากฉันจะต้องคำนวณฟังก์ชั่นโอกาสในการบันทึกที่คาดหวัง (จะต้องคำนวณความน่าจะเป็นหลัง) แล้วจึงเพิ่มโอกาสในการบันทึกที่คาดหวัง เห็นได้ชัดว่ามันยุ่งยากกว่า MCMC (ฉันแค่ต้องกำหนดความน่าจะเป็นแบบมีเงื่อนไข) ฉันยังสงสัยด้วยว่าฟังก์ชันความน่าจะเป็นและการกระจายก่อนหน้านั้นเป็นแบบคอนจูเกตหรือไม่ มันหมายความว่า MCMC ต้องมาบรรจบกัน? ฉันสงสัยเกี่ยวกับข้อ จำกัด ของ MCMC และ EM

2
การตรวจหา Switchpoint ด้วยการโปรแกรมที่น่าจะเป็น (pymc)
ฉันกำลังอ่านการเขียนโปรแกรมน่าจะเป็นและวิธีเบส์สำหรับแฮกเกอร์ "หนังสือ" ฉันได้อ่านบทไม่กี่บทและฉันก็คิดในบทแรกที่ตัวอย่างแรกของ pymc ประกอบด้วยการตรวจสอบ witchpoint ในข้อความ ในตัวอย่างว่าตัวแปรสุ่มเพื่อระบุว่าเมื่อ switchpoint ที่เกิดขึ้นจะถูกระบุด้วย\หลังจากขั้นตอน MCMC การแจกแจงหลังของ จะได้รับ:ττ\tauττ\tau ประการแรกสิ่งที่สามารถเรียนรู้ได้จากกราฟนี้คือมีความเป็นไปได้เกือบ 50% ที่จุดเปลี่ยนเกิดขึ้นในวันที่ 45 แม้ว่าจะเกิดอะไรขึ้นถ้าไม่มีจุดเปลี่ยน แทนที่จะสมมติว่ามีสวิตช์พอยต์แล้วลองค้นหาฉันต้องการตรวจสอบว่ามีสวิตช์pointหรือไม่ ผู้เขียนตอบคำถาม "เกิด switchpoint เกิดขึ้น" โดย "ไม่มีการเปลี่ยนแปลงเกิดขึ้นหรือมีการเปลี่ยนแปลงอย่างค่อยเป็นค่อยไปเมื่อเวลาผ่านไปการกระจายหลัง จะกระจายออกไปมากขึ้น" แต่คุณจะตอบคำถามนี้อย่างไรเช่นมีโอกาส 90% ที่จุดเปลี่ยนจะเกิดขึ้นและมีโอกาส 50% ที่จะเกิดขึ้นในวันที่ 45ττ\tau จำเป็นต้องเปลี่ยนโมเดลหรือไม่ หรือสามารถตอบด้วยรุ่นปัจจุบันได้หรือไม่

2
ความสับสนที่เกี่ยวข้องกับการสุ่มตัวอย่างกิ๊บส์
ฉันเจอบทความนี้ที่มันบอกว่าในการสุ่มตัวอย่างกิ๊บส์ทุกตัวอย่างเป็นที่ยอมรับ ฉันสับสนเล็กน้อย ทำไมทุกตัวอย่างที่ยอมรับมันมาบรรจบกับการแจกแจงแบบคงที่ โดยทั่วไปอัลกอริทึม Metropolis เรายอมรับเป็น min (1, p (x *) / p (x)) โดยที่ x * เป็นจุดตัวอย่าง ฉันคิดว่า x * ชี้ให้เราไปยังตำแหน่งที่ความหนาแน่นสูงดังนั้นเราจึงย้ายไปยังการกระจายเป้าหมาย ดังนั้นฉันคิดว่ามันจะย้ายไปยังการกระจายเป้าหมายหลังจากการเผาไหม้ในช่วงเวลา อย่างไรก็ตามในการสุ่มตัวอย่างของกิ๊บส์เรายอมรับทุกอย่างแม้ว่ามันอาจจะพาเราไปที่อื่น สมมติว่าเรามีการกระจาย Z เราไม่สามารถคำนวณ Z. ในอัลกอริทึมมหานครเราใช้คำว่าเพื่อรวมการกระจายบวกกับค่าคงที่ normalizing Z ยกเลิก ดังนั้นมันก็โอเคp(θ)=c(θ)/Zp(θ)=c(θ)/Zp(\theta) = c(\theta)/Zค(θn E W) / c (θo l d)c(θnew)/c(θold)c(\theta^{new})/c(\theta^{old})c ( θ )c(θ)c(\theta) แต่ในการสุ่มตัวอย่างกิ๊บส์เราใช้การกระจายที่ไหนc ( θ )c(θ)c(\theta) สำหรับเช่นในกระดาษhttp://books.nips.cc/papers/files/nips25/NIPS2012_0921.pdfที่กำหนดของมัน …

4
(การโต้ตอบ) MCMC สำหรับรูปหลังด้านหลัง
ฉันพยายามที่จะสุ่มตัวอย่างจากผู้โพสต์ด้านหลังที่มีหลายโหมดโดยเฉพาะอย่างยิ่งที่ไกลจากกันโดยใช้ MCMC ปรากฏว่าในกรณีส่วนใหญ่เฉพาะหนึ่งในโหมดเหล่านี้เท่านั้นที่มี 95% hpd ที่ฉันกำลังมองหา ฉันพยายามที่จะใช้โซลูชั่นตามการจำลองอารมณ์ แต่สิ่งนี้ไม่ได้ผลลัพธ์ที่น่าพอใจในทางปฏิบัติที่เกิดขึ้นจาก "ช่วงการจับภาพ" หนึ่งไปยังอีกที่หนึ่งคือค่าใช้จ่ายสูง สำหรับฉันแล้วดูเหมือนว่าโซลูชันที่มีประสิทธิภาพมากขึ้นจะใช้ MCMC ง่าย ๆ หลายจุดจากจุดเริ่มต้นที่แตกต่างกันและดำดิ่งลงสู่โซลูชันที่โดดเด่นด้วยการทำให้ MCMC โต้ตอบ คุณรู้หรือไม่ว่ามีวิธีที่เหมาะสมในการนำแนวคิดดังกล่าวไปใช้หรือไม่ หมายเหตุ: ฉันพบว่ากระดาษhttp://lccc.eecs.berkeley.edu/Papers/dmcmc_short.pdf (กระจายมาร์คอฟโซ่มอนติคาร์โลลอเรนซ์เมอเรย์) ที่ดูใกล้เคียงกับสิ่งที่ฉันกำลังมองหา แต่ฉันไม่เข้าใจการออกแบบ ของฟังก์ชั่นR_iRผมRiR_i [แก้ไข]:การขาดคำตอบดูเหมือนจะบ่งบอกว่าไม่มีทางออกที่ชัดเจนสำหรับปัญหาเริ่มต้นของฉัน (ทำให้การสุ่มตัวอย่าง MCMC หลายครั้งจากการกระจายเป้าหมายเดียวกันจากจุดเริ่มต้นที่แตกต่างกันมีปฏิสัมพันธ์ซึ่งกันและกัน) มันเป็นเรื่องจริงเหรอ? ทำไมมันซับซ้อนจัง ขอบคุณ

1
การสร้างโมเดลเอนโทรปีสูงสุดจากตัวแยกประเภทเอนโทรปีสูงสุดแบบหลายอินพุตที่มีอยู่
ฉันรู้สึกทึ่งกับแนวคิดของรูปแบบสูงสุดของเอนโทรปีมาร์คอฟ (MEMM) และฉันกำลังคิดที่จะใช้มันสำหรับแท็กเกอร์ Speech (POS) ส่วนหนึ่ง ในขณะนี้ฉันใช้ลักษณนาม Maximum Entropy (ME) ทั่วไปเพื่อติดแท็กแต่ละคำ สิ่งนี้ใช้คุณสมบัติหลายอย่างรวมถึงสองแท็กก่อนหน้านี้ MEMM ใช้อัลกอริทึม Viterbi เพื่อค้นหาเส้นทางที่เหมาะสมผ่านห่วงโซ่มาร์คอฟ (เช่นเพื่อค้นหาแท็กชุดที่สมบูรณ์แบบที่สุดสำหรับประโยคแทนที่จะเป็นคำแต่ละคำที่เหมาะสมที่สุด อ่านเกี่ยวกับเรื่องนี้ดูเหมือนจะมีความสง่างามและความเรียบง่ายที่ยอดเยี่ยม อย่างไรก็ตามแต่ละสเตจจะอาศัย "ผลลัพธ์" ของสเตจก่อนหน้าเท่านั้น (เช่นตามเครือมาร์คอฟ) อย่างไรก็ตามโมเดล ME ของฉันใช้สองขั้นตอนก่อนหน้า (เช่นแท็กสำหรับสองคำก่อนหน้านี้) ดูเหมือนว่าฉันมีวิธีที่เป็นไปได้สองวิธี: เช่นเดียวกับการใช้ Viterbi แบบเดิมให้ใช้ชุดของเส้นทางที่จัดเก็บตามขั้นตอนเดียว (ก่อนหน้านี้) ตัวแยกประเภท ME ของฉันจะใช้ขั้นตอนนี้และ 'แช่แข็ง' ก่อนหน้านี้ (ถูกแช่แข็งในเส้นทางภายใต้การพิจารณา) เพื่อสร้างฟังก์ชันถ่ายโอน หรือฉันเขียนอัลกอริทึมเพื่อติดตามสองขั้นตอน สิ่งนี้มีความซับซ้อนมากขึ้นและจะไม่เป็นโมเดลของมาร์คอฟที่แท้จริงอีกต่อไปเพราะฟังก์ชั่นถ่ายโอนแต่ละตัว (เช่นจาก ME Model) จะขึ้นอยู่กับสองขั้นตอนก่อนหน้านี้และไม่ใช่หนึ่งขั้นตอน มันทำให้ฉันรู้ว่าสิ่งที่สองจะแม่นยำยิ่งขึ้นแม้ว่ามันจะซับซ้อนกว่าก็ตาม ฉันยังไม่พบตัวอย่างใด ๆ ของสิ่งนี้ในระหว่างการค้นหาวรรณกรรม มันถูกลองแล้วหรือยัง? วิธีการสองขั้นตอนนี้ช่วยปรับปรุงความแม่นยำโดยรวมหรือไม่?

3
อัตราการยอมรับของ Metropolis-Hastings พร้อมการกระจายผู้สมัครที่สม่ำเสมอ
เมื่อรันอัลกอริทึม Metropolis-Hastings ด้วยการแจกแจงผู้สมัครที่สม่ำเสมอเหตุผลในการมีอัตราการยอมรับประมาณ 20% คืออะไร? ความคิดของฉันคือ: เมื่อค้นพบค่าพารามิเตอร์จริง (หรือใกล้เคียงกับจริง) แล้วไม่มีการตั้งค่าพารามิเตอร์ของตัวเลือกใหม่จากช่วงเวลาเดียวกันที่เหมือนกันจะเพิ่มค่าของฟังก์ชันความน่าจะเป็น ดังนั้นยิ่งฉันวิ่งซ้ำมากเท่าไหร่อัตราการยอมรับก็ยิ่งต่ำลงเท่านั้น ฉันผิดในความคิดนี้ที่ไหน ขอบคุณมาก! นี่คือภาพประกอบการคำนวณของฉัน: A c c e p t a n c e _ r a t e = exp{ l (θค| Y) + บันทึก( p (θค) ) - [ l (θ* * * *| Y) + บันทึก( p (θ* …

2
คำนวณ ROC curve สำหรับข้อมูล
ดังนั้นฉันมีการทดลอง 16 ครั้งที่ฉันพยายามพิสูจน์ตัวตนบุคคลจากลักษณะทางชีวภาพโดยใช้ Hamming Distance เกณฑ์ของฉันถูกตั้งไว้ที่ 3.5 ข้อมูลของฉันอยู่ด้านล่างและเฉพาะการทดลองใช้ 1 เท่านั้นคือ True Positive: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 จุดสับสนของฉันคือฉันไม่แน่ใจจริงๆเกี่ยวกับวิธีสร้าง ROC curve …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
ฉันสามารถตัวอย่างชุดข้อมูลขนาดใหญ่ที่การทำซ้ำ MCMC ทุกครั้งได้หรือไม่
ปัญหา:ฉันต้องการทำการสุ่มตัวอย่างของกิ๊บส์เพื่อสรุปหลังชุดข้อมูลขนาดใหญ่ โชคไม่ดีโมเดลของฉันไม่ง่ายนักและการสุ่มตัวอย่างช้าเกินไป ฉันจะพิจารณาแนวทางที่หลากหลายหรือขนาน แต่ก่อนที่จะไปไกล ... คำถาม:ฉันต้องการทราบว่าฉันสามารถสุ่มตัวอย่างตัวอย่าง (พร้อมการแทนที่) จากชุดข้อมูลของฉันที่การวนซ้ำของกิ๊บส์ทุกครั้งหรือไม่ สัญชาตญาณของฉันคือแม้ว่าฉันจะเปลี่ยนตัวอย่างฉันจะไม่เปลี่ยนความหนาแน่นของความน่าจะเป็นและดังนั้นตัวอย่างกิ๊บส์ไม่ควรสังเกตเห็นเคล็ดลับ ฉันถูกไหม? มีผู้อ้างอิงบางคนที่ทำสิ่งนี้หรือไม่?
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.