คำถามติดแท็ก bayesian

การอนุมานแบบเบย์เป็นวิธีการอนุมานเชิงสถิติที่อาศัยการรักษาพารามิเตอร์แบบจำลองเป็นตัวแปรสุ่มและการใช้ทฤษฎีบทของเบส์เพื่ออนุมานความน่าจะเป็นแบบอัตนัยเกี่ยวกับพารามิเตอร์หรือสมมติฐานตามเงื่อนไขบนชุดข้อมูลที่สังเกต

2
Hamiltonte monte carlo
ใครสามารถอธิบายแนวคิดหลักที่อยู่เบื้องหลังวิธีการของ Hamiltonian Monte Carlo และในกรณีใดที่พวกเขาจะให้ผลลัพธ์ที่ดีกว่าวิธีของ Markov Chain Monte Carlo
14 bayesian  mcmc  hmc 

1
Jeffreys ก่อนหน้าสำหรับพารามิเตอร์หลายตัว
ในบางกรณี Jeffreys ก่อนหน้าสำหรับโมเดลหลายมิติเต็มรูปแบบจะถูกพิจารณาว่าไม่เพียงพอนี่เป็นตัวอย่างกรณีใน: (โดยที่ ε ∼ N ( 0 , σ 2 ) , โดยมี μและ σไม่ทราบ) โดยที่ก่อนหน้านี้ต้องการ (สำหรับ Jeffreys เต็มก่อนหน้า π ( μ , σ ) ∝ σ - 2 ): p ( μ , σ ) = π ( μ ) ⋅ π ( σ ) อัลฟ่าσ - …

2
มาตรฐานประสิทธิภาพสำหรับ MCMC
เคยมีการศึกษาขนาดใหญ่ของวิธีการ MCMC ที่เปรียบเทียบประสิทธิภาพของอัลกอริทึมที่แตกต่างกันหลายชุดในชุดทดสอบความหนาแน่นหรือไม่? ฉันกำลังคิดถึงบางสิ่งที่เทียบเท่ากับกระดาษของ Rios และ Sahinidis (2013) ซึ่งเป็นการเปรียบเทียบอย่างละเอียดเกี่ยวกับเครื่องมือเพิ่มประสิทธิภาพกล่องดำแบบไร้อนุพันธ์จำนวนมากในฟังก์ชั่นการทดสอบหลายชั้น สำหรับ MCMC สามารถประเมินประสิทธิภาพได้เช่นจำนวนตัวอย่างที่มีประสิทธิภาพ (ESS) ต่อการประเมินความหนาแน่นหรือตัวชี้วัดอื่น ๆ ที่เหมาะสม ความคิดเห็นไม่กี่: ฉันขอขอบคุณที่ประสิทธิภาพจะขึ้นอยู่กับรายละเอียดของเป้าหมาย PDF แต่ข้อโต้แย้งที่คล้ายกัน (อาจไม่เหมือนกัน) สำหรับการเพิ่มประสิทธิภาพและยังมีฟังก์ชั่นมาตรฐานห้องสวีทการแข่งขันเอกสารและอื่น ๆ ที่เกี่ยวข้องกับการเพิ่มประสิทธิภาพการเปรียบเทียบ อัลกอริทึม นอกจากนี้มันเป็นความจริงที่ MCMC แตกต่างจากการปรับให้เหมาะสมเมื่อเปรียบเทียบกับการดูแลและปรับแต่งที่จำเป็นจากผู้ใช้ อย่างไรก็ตามขณะนี้มีวิธีการ MCMC หลายวิธีที่ต้องการการปรับแต่งเพียงเล็กน้อยหรือไม่มีเลย: วิธีการปรับตัวในเฟสเบิร์นอิน, ในระหว่างการสุ่มตัวอย่าง, หรือหลายรัฐ (หรือเรียกว่าensemble ) วิธีการ (เช่นEmcee ) ข้อมูลจากโซ่อื่น ๆ เพื่อเป็นแนวทางในการสุ่มตัวอย่าง ฉันสนใจเป็นพิเศษในการเปรียบเทียบระหว่างวิธีมาตรฐานและหลายรัฐ (aka ensemble) สำหรับคำจำกัดความของหลายรัฐโปรดดูมาตรา 30.6 ของหนังสือของ MacKay : …

1
คุณต้องปฏิบัติตามหลักการความน่าจะเป็นแบบเบย์หรือไม่?
คำถามนี้ถูกกระตุ้นจากคำถาม: เมื่อใด (ถ้าเคย) เป็นวิธีการที่พบบ่อยดีกว่า Bayesian อย่างมาก? ในขณะที่ฉันโพสต์ในการแก้ปัญหาของฉันในความคิดของฉันถ้าคุณเป็นนักประดาน้ำที่คุณไม่ต้องเชื่อ / ยึดมั่นในหลักการโอกาส เพราะบ่อยครั้งที่วิธีการบ่อยครั้งจะละเมิดมัน อย่างไรก็ตามและนี่มักจะอยู่ภายใต้สมมติฐานของนักบวชที่เหมาะสมวิธีการแบบเบย์ไม่เคยละเมิดหลักการความน่าจะเป็น ดังนั้นตอนนี้ที่จะบอกว่าคุณเป็นชาว Bayesian แล้วที่ยืนยันความเชื่อหรือข้อตกลงของคน ๆ หนึ่งในหลักการความน่าจะเป็นหรือเป็นข้อโต้แย้งว่าการเป็นชาว Bayesian นั้นมีผลลัพธ์ที่ดีที่หลักการความน่าจะเป็นไม่ได้ถูกละเมิด?

1
ทำไมการเพิ่มเอฟเฟกต์ความล่าช้าจึงเพิ่มความเบี่ยงเบนในโมเดลลำดับชั้นแบบเบย์?
ข้อมูลประกอบ:ขณะนี้ฉันกำลังทำงานเปรียบเทียบรูปแบบลำดับชั้นแบบเบย์ต่างๆ ข้อมูลyijyijy_{ij}มีตัวเลขของการวัดเป็นอยู่ที่ดีสำหรับผู้เข้าร่วมiiiและเวลาที่ jjjjฉันมีผู้เข้าร่วมประมาณ 1,000 คนและผู้สังเกตการณ์ 5 ถึง 10 คนต่อผู้เข้าร่วม เช่นเดียวกับชุดข้อมูลระยะยาวส่วนใหญ่ฉันคาดหวังว่าจะเห็นรูปแบบความสัมพันธ์อัตโนมัติซึ่งการสังเกตที่ใกล้เวลาจะมีความสัมพันธ์มากกว่ารูปแบบอื่น ๆ ลดความซับซ้อนของบางสิ่งบางอย่างโมเดลพื้นฐานมีดังนี้: yij∼N(μij,σ2)yij∼N(μij,σ2)y_{ij} \sim N(\mu_{ij}, \sigma^2) ฉันกำลังเปรียบเทียบรุ่นที่ไม่มีความล่าช้า: μij=β0iμij=β0i\mu_{ij} = \beta_{0i} ด้วยความล่าช้าแบบ: μij=β0i+β1(yi(j−1)−β0i)μij=β0i+β1(yi(j−1)−β0i)\mu_{ij} = \beta_{0i} + \beta_{1} (y_{i(j-1)} - \beta_{0i}) β0iβ0i\beta_{0i}β1β1\beta_1yi0yi0y_{i0} ผลลัพธ์ที่ฉันได้รับบ่งชี้ว่า: พารามิเตอร์ lag มีค่าประมาณ. 18, 95% CI [.14, .21] คือมันไม่ใช่ศูนย์ ความเบี่ยงเบนเฉลี่ยและ DIC เพิ่มขึ้นหลายร้อยเมื่อความล่าช้ารวมอยู่ในโมเดล การตรวจสอบการคาดการณ์หลังแสดงให้เห็นว่าการรวมเอฟเฟกต์ความล่าช้าแบบจำลองสามารถกู้คืนความสัมพันธ์อัตโนมัติในข้อมูลได้ดีขึ้น ดังนั้นโดยสรุปพารามิเตอร์ lag ที่ไม่เป็นศูนย์และการตรวจสอบการทำนายหลังแนะนำโมเดล lag จะดีกว่า ยังหมายถึงความเบี่ยงเบนและ …

2
Dirichlet กระบวนการสำหรับการทำคลัสเตอร์: วิธีจัดการกับป้ายกำกับ?
Q:วิธีมาตรฐานในการจัดกลุ่มข้อมูลโดยใช้กระบวนการ Dirichlet คืออะไร เมื่อใช้กลุ่มการสุ่มตัวอย่างของกิ๊บส์จะปรากฏขึ้นและหายไประหว่างการสุ่มตัวอย่าง นอกจากนี้เรามีปัญหาในการระบุตัวตนเนื่องจากการกระจายหลังนั้นไม่แปรเปลี่ยนไปจากการจัดกลุ่มใหม่ ดังนั้นเราไม่สามารถพูดได้ว่าเป็นกลุ่มของผู้ใช้ แต่ที่ผู้ใช้สองคนที่อยู่ในกลุ่มเดียวกัน (นั่นคือp(ci=cj)p(ci=cj)p(c_i=c_j) ) เราสามารถสรุปข้อมูลที่ได้รับมอบหมายในชั้นเรียนเพื่อที่ว่าถ้าคือการกำหนดกลุ่มของจุดฉันตอนนี้เราไม่เพียง แต่ที่คฉัน = คเจแต่ที่คฉัน = คJ = คJ = . . = ccicic_iiiici=cjci=cjc_i=c_j ?ci=cj=cj=...=czci=cj=cj=...=czc_i=c_j=c_j=...=c_z นี่เป็นทางเลือกที่ฉันพบและทำไมฉันจึงคิดว่าสิ่งเหล่านี้ไม่สมบูรณ์หรือเข้าใจผิด (1) DP-GMM + การสุ่มตัวอย่าง Gibbs + เมทริกซ์ความสับสนตามคู่ หากต้องการใช้แบบจำลองส่วนผสมของกระบวนการ Dirichlet แบบเกาส์ (DP-GMM) สำหรับการจัดกลุ่มฉันได้นำบทความนี้ไปใช้โดยผู้เขียนเสนอ DP-GMM สำหรับการประเมินความหนาแน่นโดยใช้การสุ่มตัวอย่างแบบกิ๊บส์ เพื่อสำรวจประสิทธิภาพการจัดกลุ่มพวกเขาพูดว่า: เนื่องจากจำนวนของส่วนประกอบเปลี่ยนแปลงไปตลอดห่วงโซ่ [MCMC] เราจะต้องสร้างเมทริกซ์ความสับสนซึ่งแสดงความถี่ของคู่ข้อมูลแต่ละคู่ที่ได้รับมอบหมายให้เป็นองค์ประกอบเดียวกันสำหรับทั้งห่วงโซ่ดูรูปที่ 6 ข้อด้อย : นี่ไม่ใช่การจัดกลุ่มแบบ "สมบูรณ์" จริง แต่เป็นการทำคลัสเตอร์แบบคู่ที่ชาญฉลาด รูปดูดีมากเพราะเรารู้ว่ากลุ่มจริงและจัดเมทริกซ์ตามนั้น …

2
ความเป็นส่วนตัวในสถิติผู้ใช้บ่อย
ฉันมักจะได้ยินคำกล่าวอ้างว่าสถิติแบบเบย์นั้นเป็นเรื่องส่วนตัว เหตุผลหลักคือการอนุมานนั้นขึ้นอยู่กับการเลือกก่อนหน้า (แม้ว่าใครจะสามารถใช้หลักการของความไม่แยแส o สูงสุดของเอนโทรปีในการเลือกก่อน) ในการเปรียบเทียบการเรียกร้องไปสถิติบ่อยครั้งโดยทั่วไปมีวัตถุประสงค์มากขึ้น คำนี้มีความจริงมากน้อยแค่ไหน? นอกจากนี้ยังทำให้ฉันสงสัย: อะไรคือองค์ประกอบที่เป็นรูปธรรมของสถิติผู้ใช้บ่อย (ถ้ามี) ที่สามารถเป็นอัตนัยโดยเฉพาะและที่ไม่ปรากฏหรือมีความสำคัญน้อยกว่าในสถิติแบบเบย์? ความเป็นส่วนตัวนั้นแพร่หลายมากในเบย์มากกว่าในสถิติบ่อย

4
จากมุมมองความน่าจะเป็นแบบเบย์ทำไมช่วงเวลาความมั่นใจ 95% จึงไม่มีพารามิเตอร์จริงที่มีความน่าจะเป็น 95%
จากหน้า Wikipedia เกี่ยวกับช่วงความมั่นใจ : ... หากช่วงความมั่นใจถูกสร้างขึ้นในการวิเคราะห์ข้อมูลที่แยกกันหลายครั้งของการทดลองซ้ำ (และอาจแตกต่างกัน) การทดลองสัดส่วนของช่วงเวลาดังกล่าวที่มีค่าจริงของพารามิเตอร์จะตรงกับระดับความเชื่อมั่น ... และจากหน้าเดียวกัน: ช่วงความเชื่อมั่นไม่ได้คาดการณ์ว่ามูลค่าที่แท้จริงของพารามิเตอร์มีความน่าจะเป็นโดยเฉพาะอย่างยิ่งที่จะอยู่ในช่วงความเชื่อมั่นที่ได้รับข้อมูลจริง ถ้าฉันเข้าใจถูกต้องประโยคสุดท้ายนี้ทำขึ้นโดยการตีความความน่าจะเป็นบ่อยๆในใจ อย่างไรก็ตามจากมุมมองความน่าจะเป็นแบบเบย์ทำไมช่วงเวลาความมั่นใจ 95% จึงไม่มีพารามิเตอร์จริงที่มีความน่าจะเป็น 95% และถ้าไม่เช่นนั้นจะเกิดอะไรขึ้นกับการให้เหตุผลต่อไปนี้? หากฉันมีกระบวนการที่ฉันรู้ว่าสร้างคำตอบที่ถูกต้อง 95% ของเวลาความน่าจะเป็นของคำตอบถัดไปที่ถูกต้องคือ 0.95 (เนื่องจากฉันไม่มีข้อมูลเพิ่มเติมเกี่ยวกับกระบวนการ) ในทำนองเดียวกันถ้ามีคนแสดงช่วงความมั่นใจที่สร้างขึ้นโดยกระบวนการที่จะมีพารามิเตอร์จริง 95% ของเวลาฉันไม่ควรพูดว่ามันมีพารามิเตอร์จริงที่มีความน่าจะเป็น 0.95 ตามที่ฉันรู้ คำถามนี้คล้ายกับ แต่ไม่เหมือนกับทำไม 95% CI จึงไม่ได้หมายความถึงโอกาส 95% ที่มีค่าเฉลี่ย คำตอบสำหรับคำถามนั้นมุ่งเน้นไปที่สาเหตุที่ 95% CI ไม่ได้บอกถึงโอกาส 95% ในการเก็บค่าเฉลี่ยจากมุมมองของผู้ใช้บ่อย คำถามของฉันเหมือนกัน แต่จากมุมมองความน่าจะเป็นแบบเบย์

4
ตัวอย่างการปฏิบัติสำหรับ MCMC
ฉันกำลังจะไปบรรยายที่เกี่ยวข้องกับ MCMC อย่างไรก็ตามฉันไม่พบตัวอย่างที่ดีของวิธีการใช้งาน ใครช่วยยกตัวอย่างที่เป็นรูปธรรมให้ฉันได้บ้าง ทั้งหมดที่ฉันเห็นคือพวกเขาใช้โซ่มาร์คอฟและบอกว่าการกระจายแบบคงที่คือการกระจายที่ต้องการ ฉันต้องการตัวอย่างที่ดีที่การแจกแจงที่ต้องการนั้นยากที่จะสุ่มตัวอย่าง ดังนั้นเราจึงสร้างเชนมาร์คอฟ ฉันต้องการทราบวิธีการเลือกเมทริกซ์การเปลี่ยนแปลงเพื่อให้การกระจายแบบคงที่ของเชนมาร์คอฟคือการกระจายเป้าหมายขอบคุณ

3
การเลือกตัวแปรแบบเบย์ - ใช้งานได้จริงหรือ
ฉันคิดว่าฉันอาจเล่นกับการเลือกตัวแปรแบบเบย์บางอย่างหลังจากโพสต์บล็อกที่ดีและเอกสารที่เชื่อมโยงอยู่ในนั้น ฉันเขียนโปรแกรมในrjags (ที่ฉันค่อนข้างใหม่) และดึงข้อมูลราคาสำหรับ Exxon Mobil พร้อมกับบางสิ่งที่ไม่น่าจะอธิบายผลตอบแทน (เช่นราคาของแพลเลเดียม) และสิ่งอื่น ๆ ที่ควรมีความสัมพันธ์สูง (เช่น SP500 ) วิ่งlm()เราจะเห็นว่ามีหลักฐานที่ชัดเจนของแบบจำลองที่มีพารามิเตอร์มากเกินไป แต่แพลเลเดียมนั้นควรได้รับการยกเว้น: Call: lm(formula = Exxon ~ 0 + SP + Palladium + Russell + OilETF + EnergyStks, data = chkr) Residuals: Min 1Q Median 3Q Max -1.663e-03 -4.419e-04 3.099e-05 3.991e-04 1.677e-03 Coefficients: Estimate Std. Error …

3
คุณจะทำ Bayesian ANOVA และการถดถอยใน R อย่างไร [ปิด]
ปิด. คำถามนี้เป็นคำถามปิดหัวข้อ ไม่ยอมรับคำตอบในขณะนี้ ต้องการปรับปรุงคำถามนี้หรือไม่ อัปเดตคำถามเพื่อให้เป็นไปตามหัวข้อสำหรับการตรวจสอบข้าม ปิดให้บริการใน2 ปีที่ผ่านมา ฉันมีชุดข้อมูลที่ค่อนข้างง่ายซึ่งประกอบด้วยตัวแปรอิสระหนึ่งตัวหนึ่งตัวแปรขึ้นอยู่กับหนึ่งตัวและตัวแปรเด็ดขาด ผมมีประสบการณ์มากมายการทดสอบการทำงาน frequentist ชอบaov()และlm()แต่ฉันไม่สามารถหาวิธีการดำเนินการเทียบเท่าแบบเบย์ในอาร์ ฉันต้องการเรียกใช้การถดถอยเชิงเส้นแบบเบย์ในสองตัวแปรแรกและการวิเคราะห์ความแปรปรวนแบบเบย์โดยใช้ตัวแปรหมวดหมู่เป็นการจัดกลุ่ม แต่ฉันไม่สามารถหาตัวอย่างง่ายๆเกี่ยวกับวิธีการทำเช่นนี้กับอาร์ ทั้งสอง? นอกจากนี้สถิติผลลัพธ์ที่สร้างขึ้นโดยการวิเคราะห์แบบเบย์คืออะไรและพวกเขาแสดงอะไร? ฉันไม่ได้มีความเชี่ยวชาญในสถิติมากนัก แต่ฉันทามติดูเหมือนว่าการใช้การทดสอบขั้นพื้นฐานที่มีค่า p นั้นตอนนี้คิดว่าค่อนข้างผิดและฉันพยายามติดตาม ความนับถือ.

2
ชุดซอฟต์แวร์ที่เหมาะสมที่สุดสำหรับการวิเคราะห์แบบเบย์
ฉันสงสัยว่าพวกคุณแนะนำแพคเกจทางสถิติสำหรับการดำเนินการอนุมานแบบเบย์ ตัวอย่างเช่นฉันรู้ว่าคุณสามารถเรียกใช้ openBUGS หรือ winBUGS เป็น standalones หรือคุณสามารถเรียกพวกเขาจาก R แต่ R ยังมีแพ็คเกจของตัวเองหลายตัว (MCMCPack, BACCO) ซึ่งสามารถทำการวิเคราะห์แบบเบส์ ไม่มีใครมีคำแนะนำใด ๆ ที่เป็นแพคเกจสถิติเบย์ใน R ที่ดีที่สุดหรือเกี่ยวกับทางเลือกอื่น ๆ (Matlab หรือ Mathematica?) คุณสมบัติหลักที่ฉันต้องการเปรียบเทียบคือประสิทธิภาพการใช้งานง่ายความเสถียรและความยืดหยุ่น

3
เหตุใดข้อความที่ตัดตอนมานี้บอกว่าการประมาณค่าเบี่ยงเบนมาตรฐานโดยปกติจะไม่เกี่ยวข้องกัน
ฉันอ่านเกี่ยวกับการคำนวณการประมาณค่าเบี่ยงเบนมาตรฐานและแหล่งข้อมูลที่ฉันอ่านระบุไว้ (... ) ยกเว้นในบางสถานการณ์ที่สำคัญงานมีความเกี่ยวข้องเพียงเล็กน้อยกับการใช้งานสถิติเนื่องจากความต้องการของมันถูกหลีกเลี่ยงโดยขั้นตอนมาตรฐานเช่นการใช้การทดสอบที่สำคัญและช่วงความเชื่อมั่นหรือโดยใช้การวิเคราะห์แบบเบย์ ฉันสงสัยว่าถ้าใครสามารถอธิบายเหตุผลของข้อความนี้ได้ตัวอย่างเช่นช่วงความมั่นใจไม่ได้ใช้ค่าเบี่ยงเบนมาตรฐานเป็นส่วนหนึ่งของการคำนวณหรือไม่ ดังนั้นช่วงความเชื่อมั่นจะไม่ได้รับผลกระทบจากค่าเบี่ยงเบนมาตรฐานแบบเอนเอียงหรือไม่? แก้ไข: ขอบคุณสำหรับคำตอบจนถึงตอนนี้ แต่ฉันไม่แน่ใจว่าฉันทำตามเหตุผลบางอย่างของพวกเขาดังนั้นฉันจะเพิ่มตัวอย่างง่าย ๆ ประเด็นก็คือว่าถ้าแหล่งข้อมูลนั้นถูกต้องแล้วก็มีบางอย่างผิดปกติจากการสรุปตัวอย่างและฉันอยากให้ใครสักคนชี้ให้เห็นว่าค่า p ไม่ได้ขึ้นอยู่กับค่าเบี่ยงเบนมาตรฐานอย่างไร สมมติว่านักวิจัยต้องการทดสอบว่าคะแนนเฉลี่ยของนักเรียนระดับประถมห้าในการทดสอบในเมืองของเขาหรือเธอแตกต่างจากค่าเฉลี่ยของชาติที่ 76 ด้วยระดับนัยสำคัญ 0.05 หรือไม่ ผู้วิจัยสุ่มตัวอย่างนักเรียน 20 คน ค่าเฉลี่ยตัวอย่างเท่ากับ 80.85 ค่าเบี่ยงเบนมาตรฐานตัวอย่างเท่ากับ 8.87 ซึ่งหมายความว่า: t = (80.85-76) / (8.87 / sqrt (20)) = 2.44 จากนั้นใช้ตาราง t เพื่อคำนวณว่าค่าความน่าจะเป็นแบบสองด้านที่เท่ากับ 2.44 กับ 19 df เท่ากับ 0.025 นี่ต่ำกว่าระดับนัยสำคัญ 0.05 เราจึงปฏิเสธสมมติฐานว่าง ดังนั้นในตัวอย่างนี้ค่า p …

1
ทำไมเราควรพูดถึงพฤติกรรมการลู่เข้าของตัวประมาณที่แตกต่างกันในทอพอโลยีที่แตกต่างกัน?
ในบทแรกของหนังสือเกี่ยวกับเรขาคณิตเชิงพีชคณิตและทฤษฎีการเรียนรู้ทางสถิติซึ่งพูดถึงการลู่เข้าของการประมาณค่าในพื้นที่การทำงานที่แตกต่างกันมันกล่าวว่าการประมาณแบบเบย์สอดคล้องกับโทโพโลยีการกระจายแบบชวาร์ตษ์ (ในหน้า 7): ตัวอย่างเช่น sup-norm, no, ทอพอโลยีแบบอ่อนของ Hilbert space , โทโพโลยีการกระจายแบบชวาร์ตษ์และอื่น ๆ มันขึ้นอยู่กับโทโพโลยีของพื้นที่ฟังก์ชั่นอย่างมากว่าการลู่เข้าถือหรือไม่ การประมาณค่า Bayes สอดคล้องกับโทโพโลยีการแจกแจงแบบชวาร์ตษ์ในขณะที่ความเป็นไปได้สูงสุดหรือวิธีการทางด้านหลังสอดคล้องกับ sup-norm ความแตกต่างนี้มีผลอย่างมากต่อผลการเรียนรู้ในรูปแบบเอกพจน์L 2 K n ( w ) → K ( w )LพีLพีL^pL2L2L^2Kn( w ) → K( w )Kn(W)→K(W)K_n(w)\to K(w) โดยที่และเป็นลำดับเชิงประจักษ์ KL-divergence (ผลรวมของการสังเกต) และ KL-divergence จริง (integral wrt การกระจายข้อมูล) ระหว่างโมเดลจริงและโมเดลพารามิเตอร์ (พร้อมพารามิเตอร์w )K ( w …

2
มีความแตกต่างในวิธีการแบบเบย์และวิธี EDA เป็นประจำหรือไม่?
กล่าวอย่างง่ายมาก: มีความแตกต่างในวิธีการแบบเบย์และความถี่ในการวิเคราะห์ข้อมูลเชิงสำรวจหรือไม่? ฉันรู้ว่าไม่มีอคติโดยธรรมชาติในวิธีการ EDA เช่นเดียวกับฮิสโตแกรมคือฮิสโตแกรม, Scatterplot เป็น scatterplot, ฯลฯ และฉันไม่พบตัวอย่างของความแตกต่างในวิธีการสอนหรือนำเสนอ EDA (โดยไม่สนใจบทความเชิงทฤษฎีโดย A. Gelman) . ในที่สุดฉันดู CRAN ผู้ตัดสินทุกสิ่งที่นำไปใช้: ฉันไม่พบแพ็คเกจที่ปรับให้เข้ากับวิธีการแบบเบย์ อย่างไรก็ตามฉันคิดว่าประวัติย่ออาจมีบางคนที่สามารถแสดงความเห็นเกี่ยวกับเรื่องนี้ ทำไมต้องมีความแตกต่าง สำหรับผู้เริ่ม: เมื่อระบุการแจกแจงที่เหมาะสมก่อนใครควรตรวจสอบสิ่งนี้ด้วยตาเปล่าหรือไม่? เมื่อสรุปข้อมูลและแนะนำว่าควรใช้โมเดลประจำหรือ Bayesian EDA ไม่ควรแนะนำทิศทางใดให้ไป ทั้งสองวิธีมีความแตกต่างอย่างชัดเจนในวิธีการจัดการกับแบบจำลองการผสม การระบุว่าตัวอย่างที่น่าจะมาจากการผสมของประชากรนั้นมีความท้าทายและเกี่ยวข้องโดยตรงกับวิธีการที่ใช้ในการประมาณค่าพารามิเตอร์การผสม ทั้งสองวิธีรวมโมเดล Stochastic และการเลือกแบบจำลองนั้นมาจากการทำความเข้าใจข้อมูล ข้อมูลที่ซับซ้อนมากขึ้นหรือตัวแบบที่ซับซ้อนมากขึ้นทำให้ EDA มีเวลามากขึ้น ด้วยความแตกต่างดังกล่าวระหว่างโมเดล Stochastic หรือกระบวนการสร้างจึงมีความแตกต่างในกิจกรรม EDA ดังนั้นจึงไม่ควรมีความแตกต่างที่เกิดขึ้นจากวิธี Stochastic ที่แตกต่างกันใช่หรือไม่ หมายเหตุ 1: ฉันไม่ได้กังวลเกี่ยวกับปรัชญาของ "ค่าย" - ฉันต้องการพูดถึงช่องว่างใด ๆ ในชุดเครื่องมือและวิธีการ …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.