คำถามติดแท็ก gibbs

Gibbs sampler เป็นรูปแบบง่ายๆของการจำลอง Markov Chain Monte Carlo ซึ่งใช้กันอย่างแพร่หลายในสถิติแบบเบย์โดยอาศัยการสุ่มตัวอย่างจากการแจกแจงแบบมีเงื่อนไขสำหรับตัวแปรหรือกลุ่มตัวแปรแต่ละตัว ชื่อนี้มาจากวิธีที่ใช้เป็นครั้งแรกในการสร้างแบบจำลองฟิลด์สุ่มของกิบส์โดย Geman และ Geman (1984)

1
การสุ่มตัวอย่างกิ๊บส์สำหรับโมเดลไอซิง
คำถามการบ้าน: พิจารณาโมเดลไอซิ่ง 1-d ให้x_d) คือ -1 หรือ +1x=(x1,...xd)x=(x1,...xd)x = (x_1,...x_d)xixix_i π(x)∝e∑39i=1xixi+1π(x)∝e∑i=139xixi+1\pi(x) \propto e^{\sum_{i=1}^{39}x_ix_{i+1}} ออกแบบกิ๊บส์เป็นตัวอย่างขั้นตอนวิธีการในการสร้างตัวอย่างประมาณจากการกระจายเป้าหมาย(x)π(x)π(x)\pi(x) ความพยายามของฉัน: สุ่มเลือกค่า (ทั้ง -1 หรือ 1) เพื่อเติมเต็มเวกเตอร์{40}) ดังนั้นบางที1) ดังนั้นนี่คือ 0x=(x1,...x40)x=(x1,...x40)x = (x_1,...x_{40})x=(−1,−1,1,1,1,−1,1,1,...,1)x=(−1,−1,1,1,1,−1,1,1,...,1)x = (-1, -1, 1, 1, 1, -1, 1, 1,...,1)x0x0x^0 ดังนั้นตอนนี้เราต้องดำเนินการต่อและทำซ้ำครั้งแรก เราต้องวาด 40 x ที่แตกต่างกันสำหรับแยกกัน ดังนั้น...x1x1x^1 วาดจากx11x11x_1^1π(x1|x02,...,x040)π(x1|x20,...,x400)\pi(x_1 | x_2^0,...,x_{40}^0) วาดจากx12x21x_2^1π(x2|x11,x03,...,x040)π(x2|x11,x30,...,x400)\pi(x_2 | x_1^1, x_3^0,...,x_{40}^0) วาดจากx13x31x_3^1π(x3|x11,x12,x04,...,x040)π(x3|x11,x21,x40,...,x400)\pi(x_3 | …

2
โปรแกรมเช่น BUGS / JAGS จะกำหนดการกระจายแบบมีเงื่อนไขสำหรับการสุ่มตัวอย่างแบบกิ๊บส์อย่างไร
ดูเหมือนว่าเงื่อนไขแบบเต็มมักจะยากที่จะรับมา แต่โปรแกรมเช่น JAGS และ BUGS จะได้มาโดยอัตโนมัติ บางคนสามารถอธิบายได้ว่าพวกเขาสร้างอัลกอริธึมแบบเต็มรูปแบบสำหรับสเปคแบบใดก็ได้หรือไม่?

2
ความสับสนที่เกี่ยวข้องกับการสุ่มตัวอย่างกิ๊บส์
ฉันเจอบทความนี้ที่มันบอกว่าในการสุ่มตัวอย่างกิ๊บส์ทุกตัวอย่างเป็นที่ยอมรับ ฉันสับสนเล็กน้อย ทำไมทุกตัวอย่างที่ยอมรับมันมาบรรจบกับการแจกแจงแบบคงที่ โดยทั่วไปอัลกอริทึม Metropolis เรายอมรับเป็น min (1, p (x *) / p (x)) โดยที่ x * เป็นจุดตัวอย่าง ฉันคิดว่า x * ชี้ให้เราไปยังตำแหน่งที่ความหนาแน่นสูงดังนั้นเราจึงย้ายไปยังการกระจายเป้าหมาย ดังนั้นฉันคิดว่ามันจะย้ายไปยังการกระจายเป้าหมายหลังจากการเผาไหม้ในช่วงเวลา อย่างไรก็ตามในการสุ่มตัวอย่างของกิ๊บส์เรายอมรับทุกอย่างแม้ว่ามันอาจจะพาเราไปที่อื่น สมมติว่าเรามีการกระจาย Z เราไม่สามารถคำนวณ Z. ในอัลกอริทึมมหานครเราใช้คำว่าเพื่อรวมการกระจายบวกกับค่าคงที่ normalizing Z ยกเลิก ดังนั้นมันก็โอเคp(θ)=c(θ)/Zp(θ)=c(θ)/Zp(\theta) = c(\theta)/Zค(θn E W) / c (θo l d)c(θnew)/c(θold)c(\theta^{new})/c(\theta^{old})c ( θ )c(θ)c(\theta) แต่ในการสุ่มตัวอย่างกิ๊บส์เราใช้การกระจายที่ไหนc ( θ )c(θ)c(\theta) สำหรับเช่นในกระดาษhttp://books.nips.cc/papers/files/nips25/NIPS2012_0921.pdfที่กำหนดของมัน …

2
คำนวณ ROC curve สำหรับข้อมูล
ดังนั้นฉันมีการทดลอง 16 ครั้งที่ฉันพยายามพิสูจน์ตัวตนบุคคลจากลักษณะทางชีวภาพโดยใช้ Hamming Distance เกณฑ์ของฉันถูกตั้งไว้ที่ 3.5 ข้อมูลของฉันอยู่ด้านล่างและเฉพาะการทดลองใช้ 1 เท่านั้นคือ True Positive: Trial Hamming Distance 1 0.34 2 0.37 3 0.34 4 0.29 5 0.55 6 0.47 7 0.47 8 0.32 9 0.39 10 0.45 11 0.42 12 0.37 13 0.66 14 0.39 15 0.44 16 0.39 จุดสับสนของฉันคือฉันไม่แน่ใจจริงๆเกี่ยวกับวิธีสร้าง ROC curve …
9 mathematical-statistics  roc  classification  cross-validation  pac-learning  r  anova  survival  hazard  machine-learning  data-mining  hypothesis-testing  regression  random-variable  non-independent  normal-distribution  approximation  central-limit-theorem  interpolation  splines  distributions  kernel-smoothing  r  data-visualization  ggplot2  distributions  binomial  random-variable  poisson-distribution  simulation  kalman-filter  regression  lasso  regularization  lme4-nlme  model-selection  aic  r  mcmc  dlm  particle-filter  r  panel-data  multilevel-analysis  model-selection  entropy  graphical-model  r  distributions  quantiles  qq-plot  svm  matlab  regression  lasso  regularization  entropy  inference  r  distributions  dataset  algorithms  matrix-decomposition  regression  modeling  interaction  regularization  expected-value  exponential  gamma-distribution  mcmc  gibbs  probability  self-study  normality-assumption  naive-bayes  bayes-optimal-classifier  standard-deviation  classification  optimization  control-chart  engineering-statistics  regression  lasso  regularization  regression  references  lasso  regularization  elastic-net  r  distributions  aggregation  clustering  algorithms  regression  correlation  modeling  distributions  time-series  standard-deviation  goodness-of-fit  hypothesis-testing  statistical-significance  sample  binary-data  estimation  random-variable  interpolation  distributions  probability  chi-squared  predictor  outliers  regression  modeling  interaction 

1
ฉันสามารถตัวอย่างชุดข้อมูลขนาดใหญ่ที่การทำซ้ำ MCMC ทุกครั้งได้หรือไม่
ปัญหา:ฉันต้องการทำการสุ่มตัวอย่างของกิ๊บส์เพื่อสรุปหลังชุดข้อมูลขนาดใหญ่ โชคไม่ดีโมเดลของฉันไม่ง่ายนักและการสุ่มตัวอย่างช้าเกินไป ฉันจะพิจารณาแนวทางที่หลากหลายหรือขนาน แต่ก่อนที่จะไปไกล ... คำถาม:ฉันต้องการทราบว่าฉันสามารถสุ่มตัวอย่างตัวอย่าง (พร้อมการแทนที่) จากชุดข้อมูลของฉันที่การวนซ้ำของกิ๊บส์ทุกครั้งหรือไม่ สัญชาตญาณของฉันคือแม้ว่าฉันจะเปลี่ยนตัวอย่างฉันจะไม่เปลี่ยนความหนาแน่นของความน่าจะเป็นและดังนั้นตัวอย่างกิ๊บส์ไม่ควรสังเกตเห็นเคล็ดลับ ฉันถูกไหม? มีผู้อ้างอิงบางคนที่ทำสิ่งนี้หรือไม่?
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.