การสุ่มตัวอย่างจากด้านหลัง (ความหนาแน่น) ไม่เหมาะสมนั้นไม่สมเหตุสมผลจากมุมมองเชิงความน่าจะเป็น / ทฤษฎี เหตุผลก็คือฟังก์ชั่นfไม่มีอินทิกรัล จำกัด เหนือช่องว่างพารามิเตอร์และดังนั้นจึงไม่สามารถเชื่อมโยงกับแบบจำลองความน่าจะเป็น (ขอบเขต จำกัด ) แบบจำลองความน่าจะเป็น( Ω , σ , P ) (ช่องว่าง, ซิกม่า - พีชคณิต )ฉฉ( Ω , σ, P )
หากคุณมีรูปแบบที่ไม่เหมาะสมก่อนที่จะนำไปสู่การหลังที่ไม่เหมาะสมในหลายกรณีคุณยังสามารถสุ่มตัวอย่างจากรูปแบบการใช้ MCMC ตัวอย่างเช่น Metropolis-Hastings และ "ตัวอย่างหลัง" อาจดูสมเหตุสมผล นี่ดูน่าสนใจและขัดแย้งได้อย่างรวดเร็วก่อน อย่างไรก็ตามเหตุผลในการนี้คือวิธีการ MCMC ถูก จำกัด ด้วยข้อ จำกัด เชิงตัวเลขของคอมพิวเตอร์ในทางปฏิบัติดังนั้นการสนับสนุนทั้งหมดจะถูก จำกัด ขอบเขต (และไม่ต่อเนื่อง!) สำหรับคอมพิวเตอร์ จากนั้นภายใต้ข้อ จำกัด เหล่านั้น (ขอบเขตและ discreteness) หลังเป็นจริงในกรณีส่วนใหญ่
มีการอ้างอิงที่ยอดเยี่ยมโดย Hobert และ Casella ที่นำเสนอตัวอย่าง (ในลักษณะที่แตกต่างกันเล็กน้อย) ซึ่งคุณสามารถสร้างตัวอย่าง Gibbs สำหรับหลังตัวอย่างหลังดูตัวอย่างที่เหมาะสมอย่างสมบูรณ์ แต่หลังไม่เหมาะสม!
http://www.jstor.org/stable/2291572
ตัวอย่างที่คล้ายกันได้ปรากฏตัวขึ้นเมื่อเร็ว ๆ นี้ที่นี่ ในความเป็นจริง Hobert และ Casella เตือนผู้อ่านว่าวิธีการ MCMC ไม่สามารถใช้ในการตรวจสอบความไม่ถูกต้องของหลังและสิ่งนี้จะต้องมีการตรวจสอบแยกต่างหากก่อนที่จะใช้วิธีการ MCMC ใด ๆ สรุป:
- ตัวอย่าง MCMC บางตัวเช่น Metropolis-Hastings สามารถใช้ (แต่ไม่ควร) เพื่อสุ่มตัวอย่างจากคนหลังที่ไม่เหมาะสมเนื่องจากขอบเขตของคอมพิวเตอร์และแบ่งพื้นที่พารามิเตอร์ออก เฉพาะในกรณีที่คุณมีตัวอย่างจำนวนมากคุณอาจสังเกตเห็นสิ่งแปลก ๆ คุณสามารถตรวจจับปัญหาเหล่านี้ได้ดีเพียงใดขึ้นอยู่กับการกระจาย "เครื่องมือ" ที่ใช้ในตัวอย่างของคุณ ประเด็นหลังต้องการการอภิปรายที่กว้างขวางยิ่งขึ้นดังนั้นฉันชอบที่จะออกจากที่นี่
- (โฮเบอร์ทร์และคาเซลลา) ความจริงที่ว่าคุณสามารถสร้างตัวอย่าง Gibbs (แบบจำลองตามเงื่อนไข) สำหรับแบบจำลองที่ไม่เหมาะสมก่อนหน้านี้ไม่ได้หมายความว่าหลัง (แบบจำลองร่วม) เหมาะสม
- การตีความความน่าจะเป็นทางการของตัวอย่างหลังต้องการความเหมาะสมของหลัง ผลลัพธ์ของการบรรจบและการพิสูจน์ถูกสร้างขึ้นเพื่อการกระจาย / การวัดความน่าจะเป็นที่เหมาะสมเท่านั้น
PS (แก้มลิ้นเล็กน้อย): อย่าเชื่อในสิ่งที่คนทำในการเรียนรู้ของเครื่องจักร ดังที่ศาสตราจารย์ไบรอันริปลีย์กล่าวว่า: "การเรียนรู้ของเครื่องเป็นสถิติลบการตรวจสอบโมเดลและสมมติฐานใด ๆ "