คำถามติดแท็ก metropolis-hastings

อัลกอริทึม Markov Chain Monte Carlo (MCMC) ชนิดพิเศษที่ใช้ในการจำลองจากการแจกแจงความน่าจะเป็นที่ซับซ้อน ได้รับการตรวจสอบโดยทฤษฎีลูกโซ่ของ Markov และนำเสนอการใช้งานที่เป็นไปได้มากมาย

1
การสุ่มตัวอย่าง Metropolis Hastings, Gibbs, สำคัญ, และการปฏิเสธคืออะไรแตกต่างกัน?
ฉันได้พยายามเรียนรู้วิธีการ MCMC และได้พบกับการสุ่มตัวอย่าง Metropolis Hastings, Gibbs, ความสำคัญและการปฏิเสธ ในขณะที่ความแตกต่างบางอย่างเห็นได้ชัดคือวิธีการที่กิ๊บส์เป็นกรณีพิเศษของ Metropolis Hastings เมื่อเรามีเงื่อนไขแบบสมบูรณ์ แต่สิ่งอื่น ๆ นั้นชัดเจนน้อยกว่าเช่นเมื่อเราต้องการใช้ MH ในตัวอย่าง Gibbs เป็นต้นไม่มีใครมี วิธีง่ายๆในการดูจำนวนมากของความแตกต่างระหว่างแต่ละเหล่านี้หรือไม่ ขอบคุณ!

1
มีการปรับปรุงอะไรบ้างที่รู้จักกันดีในอัลกอริทึม MCMC แบบเรียนที่ผู้คนใช้สำหรับการอนุมานแบบเบย์?
เมื่อฉันเขียนโค้ดสำหรับการจำลอง Monte Carlo สำหรับปัญหาบางอย่างและตัวแบบนั้นง่ายพอฉันใช้การสุ่มตัวอย่างตำราเรียนพื้นฐานกิ๊บส์ เมื่อเป็นไปไม่ได้ที่จะใช้การสุ่มตัวอย่างของกิ๊บส์ฉันจะเขียนรหัสตำราเรียน Metropolis-Hastings ที่ฉันเรียนรู้เมื่อหลายปีก่อน ความคิดเดียวที่ฉันมอบให้คือเลือกการกระจายการกระโดดหรือพารามิเตอร์ ฉันรู้ว่ามีวิธีการพิเศษหลายร้อยและหลายร้อยวิธีที่พัฒนาขึ้นจากตัวเลือกตำราเรียนเหล่านั้น แต่ฉันมักไม่เคยคิดถึงการใช้ / การเรียนรู้ มันมักจะรู้สึกว่ามันเป็นความพยายามมากเกินไปในการปรับปรุงนิดหน่อยสิ่งที่ทำงานได้ดีอยู่แล้ว แต่เมื่อเร็ว ๆ นี้ฉันกำลังคิดว่าอาจจะไม่มีวิธีการทั่วไปแบบใหม่ที่สามารถปรับปรุงสิ่งที่ฉันทำ เป็นเวลาหลายทศวรรษแล้วที่ค้นพบวิธีการเหล่านั้น บางทีฉันล้าสมัยจริงๆ ! มีทางเลือกอื่น ๆ ที่รู้จักกันดีใน Metropolis-Hastings หรือไม่: ใช้งานง่ายพอสมควร เป็นที่ยอมรับในระดับสากลว่าเป็น MH และปรับปรุงผลลัพธ์ของ MH ให้ดีขึ้นอยู่เสมอ (การคำนวณประสิทธิภาพความแม่นยำ ฯลฯ ) ฉันรู้เกี่ยวกับการปรับปรุงที่พิเศษมากสำหรับโมเดลที่มีความพิเศษมาก แต่มีบางสิ่งที่ทุกคนใช้โดยทั่วไปที่ฉันไม่รู้

1
MCMC แบบปรับได้สามารถเชื่อถือได้หรือไม่?
ฉันกำลังอ่านเกี่ยวกับการปรับตัวMCMC (ดูเช่นบทที่ 4 ของคู่มือของมาร์คอฟเชนมอนติคาร์โล , เอ็ดบรูคส์และคณะ, 2011; และAndrieu & Thoms, 2008 ) ผลลัพธ์หลักของโรเบิร์ตและโรเซนธาล (2007)คือถ้ารูปแบบการปรับตัวสอดคล้องกับเงื่อนไขการปรับตัวที่หายไป (รวมถึงเทคนิคอื่น ๆ ) MCMC ที่ปรับตัวได้นั้นเป็นไปตามหลักสรีรศาสตร์ภายใต้โครงการใด ๆ ยกตัวอย่างเช่นการปรับตัวที่หายไปสามารถรับได้อย่างง่ายดายโดยการปรับผู้ประกอบการเปลี่ยนแปลงที่ซ้ำกับความน่าจะเป็นกับ0nnnp ( n )พี(n)p(n)Limn → ∞p ( n ) = 0Limn→∞พี(n)=0\lim_{n \rightarrow \infty} p(n) = 0 ผลลัพธ์นี้คือ (รูปหลัง) ที่ใช้งานง่ายไม่แสดงอาการ เนื่องจากจำนวนการปรับตัวมีแนวโน้มที่จะเป็นศูนย์ในที่สุดมันจะไม่ยุ่งเหยิงกับการยศาสตร์ ความกังวลของฉันคือสิ่งที่เกิดขึ้นกับเวลาที่จำกัด เราจะรู้ได้อย่างไรว่าการปรับตัวไม่ได้ยุ่งเหยิงในช่วงเวลาที่กำหนดและตัวอย่างนั้นเป็นการสุ่มตัวอย่างจากการแจกแจงที่ถูกต้อง? ถ้ามันสมเหตุสมผลแล้วการเผาไหม้จะต้องทำเท่าไหร่เพื่อให้แน่ใจว่าการปรับตัวก่อนหน้านี้ไม่ได้เป็นการให้น้ำหนักโซ่ ผู้ปฏิบัติงานในสาขาเชื่อถือ MCMC ที่ปรับตัวได้หรือไม่? เหตุผลที่ฉันถามคือเพราะฉันได้เห็นวิธีการล่าสุดหลายอย่างที่พยายามสร้างการปรับตัวในวิธีอื่น ๆ ที่ซับซ้อนกว่าซึ่งเป็นที่รู้กันว่าเคารพการยศาสตร์เช่นการฟื้นฟูหรือวิธีการรวมกัน (เช่นมันเป็นเรื่องปกติที่จะเลือกการเปลี่ยนแปลง …

2
การสุ่มตัวอย่าง Gibbs กับ MH-MCMC ทั่วไป
ฉันเพิ่งได้อ่านการสุ่มตัวอย่างของกิ๊บส์และอัลกอริทึม Metropolis Hastings และมีคำถามสองสามข้อ อย่างที่ฉันเข้าใจในกรณีของการสุ่มตัวอย่างของกิ๊บส์ถ้าเรามีปัญหาหลายตัวแปรขนาดใหญ่เราจะสุ่มตัวอย่างจากการแจกแจงแบบมีเงื่อนไขนั่นคือตัวอย่างหนึ่งตัวแปรในขณะที่รักษาตัวแปรอื่น ๆ ทั้งหมดไว้ในขณะที่ MH เราสุ่มตัวอย่าง สิ่งหนึ่งที่เอกสารกล่าวคือตัวอย่างที่เสนอนั้นเป็นที่ยอมรับเสมอในการสุ่มตัวอย่างกิ๊บส์นั่นคืออัตราการยอมรับข้อเสนออยู่เสมอ 1 สำหรับฉันแล้วนี่เป็นข้อได้เปรียบที่ยิ่งใหญ่สำหรับปัญหาหลายตัวแปรขนาดใหญ่ดูเหมือนว่าอัตราการปฏิเสธสำหรับอัลกอริธึม MH ค่อนข้างใหญ่ . หากเป็นเช่นนั้นจริง ๆ แล้วอะไรคือสาเหตุที่ไม่ใช้ Gibbs Sampler ตลอดเวลาในการสร้างการกระจายหลัง

4
อัลกอริทึม Metropolis-Hastings ที่ใช้ในการปฏิบัติ
ฉันกำลังอ่านบล็อกของ Christian Robertวันนี้และค่อนข้างชอบอัลกอริทึม Metropolis-Hastings ใหม่ที่เขาพูดถึง ดูเหมือนง่ายและใช้งานง่าย เมื่อใดก็ตามที่ฉันเขียนโค้ด MCMC ฉันมักจะติดกับอัลกอริธึม MH ขั้นพื้นฐานมาก ๆ เช่นการเคลื่อนไหวอิสระหรือการเดินสุ่มในระดับบันทึก อัลกอริธึม MH แบบใดที่ผู้คนใช้เป็นประจำ โดยเฉพาะอย่างยิ่ง: ทำไมคุณใช้พวกเขา ในบางแง่คุณต้องคิดว่ามันเหมาะสมที่สุด - หลังจากที่คุณใช้มันเป็นประจำ! ดังนั้นคุณจะตัดสินความดีอย่างไร: ความง่ายในการเข้ารหัส, การลู่เข้า, ... ฉันสนใจเป็นพิเศษในสิ่งที่ใช้ในทางปฏิบัติเช่นเมื่อคุณเขียนรหัสแผนการของคุณเอง

1
เมื่อไหร่จะใช้การสุ่มตัวอย่างของกิ๊บส์แทนเมโทรโพลิส - แฮสติ้ง
อัลกอริทึม MCMC มีหลายประเภท: มหานครเฮสติ้งส์ กิ๊บส์ การสุ่มตัวอย่างความสำคัญ / การปฏิเสธ (เกี่ยวข้อง) เหตุใดจึงใช้การสุ่มตัวอย่างของกิ๊บส์แทนเมโทรโพลิส - แฮสติ้ง ฉันสงสัยว่ามีบางกรณีที่การอนุมานทำได้ง่ายกว่าด้วยการสุ่มตัวอย่างของกิ๊บส์มากกว่ากับเมโทรโพลิส - เฮสติงส์ แต่ฉันไม่ชัดเจนในเรื่องเฉพาะ

1
การรวมตัวของมหานคร - เฮสติ้งส์ - ทำไมกลยุทธ์ของฉันจึงไม่ทำงาน
สมมติว่าฉันมีฟังก์ชั่นที่ฉันต้องการรวม แน่นอนสมมติว่าไปที่ศูนย์ที่จุดสิ้นสุดไม่มีการระเบิดฟังก์ชันที่ดี วิธีหนึ่งที่ฉันได้รับการเล่นซอกับคือการใช้อัลกอริทึม Metropolis-เฮสติ้งส์เพื่อสร้างรายการของตัวอย่างจากการกระจายสัดส่วนการซึ่งจะหายไปอย่างต่อเนื่องการฟื้นฟู ซึ่งฉันจะเรียกแล้วคำนวณสถิติf (x)บนxเหล่านี้: g(x)g(x)g(x)∫∞−∞g(x)dx.∫−∞∞g(x)dx. \int_{-\infty}^\infty g(x) dx.g(x)g(x)g(x)x1,x2,…,xnx1,x2,…,xnx_1, x_2, \dots, x_ng(x)g(x)g(x)N=∫∞−∞g(x)dxN=∫−∞∞g(x)dxN = \int_{-\infty}^{\infty} g(x)dx p(x)p(x)p(x)f(x)f(x)f(x)xxx1n∑i=0nf(xi)≈∫∞−∞f(x)p(x)dx.1n∑i=0nf(xi)≈∫−∞∞f(x)p(x)dx. \frac{1}{n} \sum_{i=0}^n f(x_i) \approx \int_{-\infty}^\infty f(x)p(x)dx. ตั้งแต่p(x)=g(x)/Np(x)=g(x)/Np(x) = g(x)/Nฉันสามารถแทนที่f(x)=U(x)/g(x)f(x)=U(x)/g(x)f(x) = U(x)/g(x)เพื่อยกเลิกgggจากอินทิกรัลส่งผลให้เกิดการแสดงออกของรูปแบบ 1N∫∞−∞U(x)g(x)g(x)dx=1N∫∞−∞U(x)dx.1N∫−∞∞U(x)g(x)g(x)dx=1N∫−∞∞U(x)dx. \frac{1}{N}\int_{-\infty}^{\infty}\frac{U(x)}{g(x)} g(x) dx = \frac{1}{N}\int_{-\infty}^\infty U(x) dx. ดังนั้นหากU(x)U(x)U(x)รวมกับ111ตามภูมิภาคนั้นฉันควรได้ผลลัพธ์1/N1/N1/Nซึ่งฉันสามารถเอาส่วนกลับซึ่งกันและกันเพื่อได้คำตอบที่ฉันต้องการ ดังนั้นฉันสามารถใช้ช่วงของตัวอย่างของฉัน (เพื่อใช้คะแนนอย่างมีประสิทธิภาพมากที่สุด) r=xmax−xminr=xmax−xminr = x_\max - x_\min และให้U(x)=1/rU(x)=1/rU(x) = 1/rสำหรับแต่ละตัวอย่างที่ฉันวาด ด้วยวิธีนี้U(x)U(x)U(x)หาค่าเป็นศูนย์นอกขอบเขตที่ตัวอย่างของฉันไม่ได้ แต่รวมกับ111ในพื้นที่นั้น ดังนั้นถ้าฉันเอาค่าที่คาดหวังมาฉันควรได้รับ: …

1
สแตน
ผมจะผ่านเอกสารสแตนซึ่งสามารถดาวน์โหลดได้จากที่นี่ ฉันมีความสนใจเป็นพิเศษในการใช้งานการวินิจฉัยของเจลแมน - รูบิน กระดาษดั้งเดิมGelman & Rubin (1992)กำหนดปัจจัยการลดขนาดที่อาจเกิดขึ้น (PSRF) ดังนี้ Let เป็นฉัน TH โซ่มาร์คอฟชิมและให้มีการรวมMโซ่อิสระตัวอย่าง ให้ˉ Xฉัน⋅เป็นค่าเฉลี่ยจากฉันห่วงโซ่, th และˉ X ⋅ ⋅เป็นค่าเฉลี่ยโดยรวม กำหนด W = 1Xฉัน, 1, … , Xฉัน, NXi,1,…,Xi,NX_{i,1}, \dots , X_{i,N}ผมiiMMMX¯ฉัน⋅X¯i⋅\bar{X}_{i\cdot}ผมiiX¯⋅ ⋅X¯⋅⋅\bar{X}_{\cdot \cdot} ที่ s 2 m =1W= 1MΣm = 1Ms2ม.,W=1M∑m=1Msm2,W = \dfrac{1}{M} \sum_{m=1}^{M} {s^2_m}, และกำหนด B B …

2
สับสนกับรูปแบบ MCMC Metropolis-Hastings: Random-Walk, Non-Random-Walk, Independent, Metropolis
ในช่วงสองสามสัปดาห์ที่ผ่านมาฉันพยายามทำความเข้าใจ MCMC และอัลกอริทึม Metropolis-Hastings ทุกครั้งที่ฉันคิดว่าฉันเข้าใจฉันรู้ว่าฉันผิด ตัวอย่างโค้ดส่วนใหญ่ที่ฉันพบในออนไลน์ใช้สิ่งที่ไม่สอดคล้องกับคำอธิบาย เช่นพวกเขากล่าวว่าพวกเขาใช้ Metropolis-Hastings แต่จริง ๆ แล้วพวกเขาใช้เมืองแบบสุ่มเดิน อื่น ๆ (เกือบตลอดเวลา) ข้ามการดำเนินการตามอัตราส่วนการแก้ไขเฮสติ้งส์อย่างเงียบ ๆ เนื่องจากใช้การกระจายข้อเสนอแบบสมมาตร ที่จริงแล้วฉันไม่พบตัวอย่างง่ายๆเพียงอย่างเดียวที่คำนวณอัตราส่วนจนถึงตอนนี้ นั่นทำให้ฉันสับสนมากขึ้น ใครสามารถให้ตัวอย่างรหัส (ภาษาใด ๆ ) ต่อไปนี้ให้ฉันได้: Vanilla Non-Random Walk Algorithm อัลกอริธึม Hastings พร้อมการคำนวณอัตราส่วนการแก้ไข Hastings (แม้ว่าสิ่งนี้จะกลายเป็น 1 เมื่อใช้การกระจายข้อเสนอแบบสมมาตร) ขั้นตอนวิธี Vanilla Random Metropolis-Hastings อัลกอรึทึมแห่งมหานคร - เฮสติ้งส์วานิลลาอิสระ ไม่จำเป็นต้องให้อัลกอริธึม Metropolis เพราะถ้าฉันไม่เข้าใจผิดความแตกต่างเพียงอย่างเดียวระหว่าง Metropolis และ Metropolis-Hastings ก็คือตัวแรกนั้นมักจะสุ่มตัวอย่างจากการกระจายแบบสมมาตรและทำให้พวกเขาไม่มีอัตราส่วนการแก้ไขเฮสติ้ง ไม่จำเป็นต้องอธิบายขั้นตอนวิธีโดยละเอียด …

4
ฉันสามารถเปลี่ยนการกระจายข้อเสนอเป็น MH MCMC แบบเดินโดยไม่ส่งผลกระทบต่อ Markovianity ได้หรือไม่
เดินสุ่มเมือง - Hasitings พร้อมข้อเสนอสมมาตร Q( x | y) = g( | y- x | )Q(x|Y)=ก.(|Y-x|)q(x|y)= g(|y-x|) มีคุณสมบัติที่ความน่าจะเป็นที่ยอมรับได้ P( a c c e p t y ) = min { 1 , f( y) / f( x ) }P(aคคอีพีเสื้อ Y)=นาที{1,ฉ(Y)/ฉ(x)}P(accept\ y) = \min\{1, f(y)/f(x)\} ไม่ได้ขึ้นอยู่กับข้อเสนอก.( ⋅ )ก.(⋅)g(\cdot)cdot) นั่นหมายความว่าฉันสามารถเปลี่ยนก.( ⋅ )ก.(⋅)g(\cdot)เป็นฟังก์ชั่นของการทำงานก่อนหน้าของเชนได้โดยไม่ส่งผลกระทบต่อ markovianity …

1
ทำความเข้าใจกับมหานครแห่งเฮสติ้งส์กับการกระจายข้อเสนอแบบอสมมาตร
ฉันพยายามที่จะเข้าใจอัลกอริทึม Metropolis-Hastings เพื่อที่จะเขียนโค้ดเพื่อประมาณค่าพารามิเตอร์ของแบบจำลอง (เช่น ) อ้างอิงจากบรรณานุกรมอัลกอริทึม Metropolis-Hastings มีขั้นตอนดังต่อไปนี้:f(x)=a∗xf(x)=a∗xf(x)=a*x สร้างYt∼q(y|xt)Yt∼q(y|xt)Y_t \sim q(y|x^t) Xt+1={Yt,xt,with probabilityρ(xt,Yt),with probability1−ρ(xt,Yt),Xt+1={Yt,with probabilityρ(xt,Yt),xt,with probability1−ρ(xt,Yt),X^{t+1}=\begin{cases} Y^t, & \text{with probability} \quad \rho(x^t,Y_t), \\ x^t, & \text{with probability} \quad 1-\rho(x^t,Y_t), \end{cases} ρ(x,y)=min(f(y)f(x)∗q(x|y)q(y|x),1)ρ(x,y)=min(f(y)f(x)∗q(x|y)q(y|x),1)\rho(x,y)=\min \left( \frac{f(y)}{f(x)}*\frac{q(x|y)}{q(y|x)},1 \right) ฉันต้องการถามคำถามสองสามข้อ: บรรณานุกรมระบุว่าหากเป็นการกระจายแบบสมมาตรอัตราส่วนจะกลายเป็น 1 และอัลกอริทึมนั้นเรียกว่า Metropolis ถูกต้องหรือไม่ ความแตกต่างเพียงอย่างเดียวระหว่าง Metropolis และ Metropolis-Hastings คือสิ่งแรกที่ใช้การกระจายแบบสมมาตร? แล้ว "Random Walk" Metropolis (-Hastings) …

1
ทำความเข้าใจกับ MCMC และอัลกอริทึม Metropolis-Hastings
ในช่วงไม่กี่วันที่ผ่านมาฉันพยายามเข้าใจว่า Markov Chain Monte Carlo (MCMC) ทำงานอย่างไร โดยเฉพาะฉันพยายามทำความเข้าใจและใช้อัลกอริทึม Metropolis-Hastings จนถึงตอนนี้ฉันคิดว่าฉันมีความเข้าใจโดยรวมเกี่ยวกับอัลกอริทึม แต่มีบางสิ่งที่ยังไม่ชัดเจนสำหรับฉัน ฉันต้องการใช้ MCMC เพื่อให้พอดีกับบางรุ่นของข้อมูล ด้วยเหตุนี้ฉันจะอธิบายความเข้าใจของฉันเกี่ยวกับอัลกอริทึม Metropolis-Hastings สำหรับปรับเส้นตรงให้กับข้อมูลที่สังเกตได้ :f(x)=axf(x)=axf(x)=axDDD 1) ตรวจเดาการเริ่มต้นสำหรับ ตั้งค่านี้เป็นปัจจุบันของเรา( ) เพิ่มตอนท้ายของ Markov Chain ( ) ด้วยaaaaaaaaaa0a0a_0aaaCCC 2) ทำซ้ำขั้นตอนการร้องหลายครั้ง 3) ประเมินโอกาสในปัจจุบัน ( ) ให้และDL0L0{\cal L_0}a0a0a_0DDD 4) เสนอใหม่( ) โดยการสุ่มตัวอย่างจากการกระจายปกติกับและ\สำหรับตอนนี้คงที่aaaa1a1a_1μ=a0μ=a0\mu=a_0σ=stepsizeσ=stepsize\sigma=stepsizestepsizestepsizestepsize 5) ประเมินโอกาสใหม่ ( ) ให้และD a 1 DL1L1{\cal L_1}a1a1a_1DDD 6) …

1
MCMC พร้อมอัลกอริทึม Metropolis-Hastings: การเลือกข้อเสนอ
ฉันต้องทำการจำลองเพื่อประเมินอินทิกรัลของฟังก์ชันพารามิเตอร์ 3 ตัวเราพูดว่าซึ่งมีสูตรที่ซับซ้อนมาก มันถูกขอให้ใช้วิธีการ MCMC เพื่อคำนวณและใช้อัลกอริทึม Metropolis-Hastings เพื่อสร้างค่าที่กระจายเป็นและแนะนำให้ใช้ 3 ตัวแปรปกติเป็นการกระจายข้อเสนอ เมื่ออ่านตัวอย่างเกี่ยวกับเรื่องนี้ฉันเห็นแล้วว่าบางส่วนใช้ปกติกับพารามิเตอร์คงที่และใช้กับตัวแปรหมายถึงโดยที่คือค่าที่ยอมรับล่าสุด กระจายตาม . ฉันมีข้อสงสัยเกี่ยวกับวิธีการทั้งสอง:ffffffN(μ,σ)N(μ,σ)N(\mu, \sigma)N(X,σ)N(X,σ)N(X, \sigma)XXXfff 1)ความหมายของการเลือกค่าที่ยอมรับล่าสุดเป็นค่าเฉลี่ยใหม่ของการกระจายข้อเสนอของเราคืออะไร สัญชาตญาณของฉันบอกว่าควรรับประกันได้ว่าคุณค่าของเราจะใกล้เคียงกับค่านิยมที่กระจายเป็นและโอกาสในการยอมรับจะยิ่งใหญ่ขึ้น แต่มันไม่ได้มุ่งเน้นตัวอย่างของเรามากเกินไปใช่ไหม รับประกันได้ว่าถ้าฉันได้รับตัวอย่างมากขึ้นโซ่จะกลายเป็นนิ่ง?fff 2)จะไม่เลือกพารามิเตอร์คงที่ (เนื่องจากยากต่อการวิเคราะห์) เป็นเรื่องยากและขึ้นอยู่กับตัวอย่างแรกที่เราต้องเลือกเพื่อเริ่มอัลกอริทึม? ในกรณีนี้อะไรจะเป็นวิธีที่ดีที่สุดในการค้นหาสิ่งที่ดีกว่าfff เป็นหนึ่งในวิธีการเหล่านั้นดีกว่าอื่น ๆ หรือขึ้นอยู่กับกรณีนี้หรือไม่? ฉันหวังว่าข้อสงสัยของฉันจะชัดเจนและฉันจะดีใจถ้าวรรณกรรมบางเล่มได้รับ (ฉันได้อ่านบทความเกี่ยวกับแก่นเรื่องแล้ว แต่ยิ่งดีกว่า!) ขอบคุณล่วงหน้า!

1
R / mgcv: เพราะเหตุใดผลิตภัณฑ์ te () และ ti () เทนเซอร์จึงให้พื้นผิวที่แตกต่างกัน
mgcvแพคเกจสำหรับการRมีสองฟังก์ชั่นสำหรับการปฏิสัมพันธ์กระชับเมตริกซ์ผลิตภัณฑ์: และte() ti()ฉันเข้าใจการแบ่งขั้นพื้นฐานของการใช้แรงงานระหว่างคนทั้งสอง (ปรับให้เหมาะสมกับการทำงานแบบไม่เป็นเชิงเส้นเปรียบเทียบกับการย่อยสลายการโต้ตอบนี้เป็นผลกระทบหลักและการโต้ตอบ) สิ่งที่ฉันไม่เข้าใจคือสาเหตุte(x1, x2)และti(x1) + ti(x2) + ti(x1, x2)อาจให้ผลลัพธ์ที่แตกต่าง (เล็กน้อย) MWE (ดัดแปลงมาจาก?ti): require(mgcv) test1 <- function(x,z,sx=0.3,sz=0.4) { x <- x*20 (pi**sx*sz)*(1.2*exp(-(x-0.2)^2/sx^2-(z-0.3)^2/sz^2)+ 0.8*exp(-(x-0.7)^2/sx^2-(z-0.8)^2/sz^2)) } n <- 500 x <- runif(n)/20;z <- runif(n); xs <- seq(0,1,length=30)/20;zs <- seq(0,1,length=30) pr <- data.frame(x=rep(xs,30),z=rep(zs,rep(30,30))) truth <- matrix(test1(pr$x,pr$z),30,30) f <- test1(x,z) y <- f …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

1
ค่าใช้จ่ายตัวอย่างของ
ฉันเจอปัญหาการจำลองต่อไปนี้: เนื่องจากชุดของจำนวนจริงที่รู้จักการแจกแจงถูกกำหนดโดย ที่หมายถึงการเป็นส่วนหนึ่งในเชิงบวกของZในขณะที่ฉันสามารถนึกถึงตัวอย่างของ Metropolis-Hastings ที่กำหนดเป้าหมายการกระจายตัวนี้ฉันสงสัยว่ามีตัวเก็บตัวอย่างโดยตรงที่มีประสิทธิภาพโดยใช้ประโยชน์จากความน่าจะเป็นศูนย์จำนวนมากเพื่อลดลำดับของอัลกอริทึมจากถึงง){ω1, … ,ωd}{ω1,…,ωd}\{\omega_1,\ldots,\omega_d\}{ - 1 , 1}d{−1,1}d\{-1,1\}^dP (X)= (x1, … ,xd) ) ∝ (x1ω1+ … +xdωd)+P(X=(x1,…,xd))∝(x1ω1+…+xdωd)+\mathbb{P}(X=(x_1,\ldots,x_d))\propto (x_1\omega_1+\ldots+x_d\omega_d)_+( z)+(z)+(z)_+Zzzโอ(2d)O(2d)O(2^d)O ( d)O(d)O(d)

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.