คำถามติดแท็ก bayesian

การอนุมานแบบเบย์เป็นวิธีการอนุมานเชิงสถิติที่อาศัยการรักษาพารามิเตอร์แบบจำลองเป็นตัวแปรสุ่มและการใช้ทฤษฎีบทของเบส์เพื่ออนุมานความน่าจะเป็นแบบอัตนัยเกี่ยวกับพารามิเตอร์หรือสมมติฐานตามเงื่อนไขบนชุดข้อมูลที่สังเกต

3
เหตุใดจึงไม่มีใครใช้ตัวจําแนกแบบหลายคนของ Bayesian Naive Bayes?
ดังนั้นในการสร้างแบบจำลองข้อความ (ที่ไม่ได้รับอนุญาต) ดังนั้น Latent Dirichlet Allocation (LDA) จึงเป็นแบบจำลอง Bayesian ของ Probabilistic Latent Semantic Analysis (PLSA) เป็นหลัก LDA = PLSA + Dirichlet ก่อนพารามิเตอร์ ความเข้าใจของฉันคือตอนนี้ LDA เป็นอัลกอริธึมอ้างอิงและนำไปใช้ในแพ็คเกจต่าง ๆ ในขณะที่ PLSA ไม่ควรใช้อีก แต่ในการจัดหมวดหมู่ข้อความ (ภายใต้การดูแล) เราสามารถทำสิ่งเดียวกันสำหรับตัวจําแนกหลายกลุ่ม Naive Bayes และวาง Dirichlet ไว้เหนือพารามิเตอร์ แต่ฉันไม่คิดว่าฉันจะเคยเห็นใครทำอย่างนั้นและเวอร์ชั่น "พอยต์ประมาณ" ของ Naive Bayes multinomial ดูเหมือนจะเป็นเวอร์ชั่นที่ติดตั้งในแพ็คเกจส่วนใหญ่ มีเหตุผลอะไรบ้าง?

3
ทำความเข้าใจกับทฤษฎีการแยก d ในเครือข่าย Bayesian ที่เป็นสาเหตุ
ฉันกำลังพยายามทำความเข้าใจกับตรรกะการแบ่งแยกในเครือข่าย Causal Bayesian ฉันรู้ว่าอัลกอริทึมทำงานอย่างไร แต่ฉันไม่เข้าใจว่าทำไม "การไหลของข้อมูล" ทำงานตามที่ระบุไว้ในอัลกอริทึม ตัวอย่างเช่นในกราฟด้านบนสมมติว่าเราได้รับ X เท่านั้นและไม่พบตัวแปรอื่น จากนั้นตามกฎของการแยก d การไหลของข้อมูลจาก X ถึง D: X อิทธิพลซึ่งเป็นX) ไม่เป็นไรเนื่องจาก A เป็นสาเหตุของ X และหากเราทราบเกี่ยวกับผลกระทบ X สิ่งนี้จะส่งผลต่อความเชื่อของเราเกี่ยวกับสาเหตุ A. ข้อมูลไหลP(A)≠P(A|X)P(A)≠P(A|X)P(A)\neq P(A|X) X มีอิทธิพลต่อ B ซึ่งเป็นX) ไม่เป็นไรเนื่องจากความรู้ของเราเกี่ยวกับ X เปลี่ยนแปลงไป A การเปลี่ยนแปลงที่ A สามารถส่งผลต่อความเชื่อของเราเกี่ยวกับสาเหตุ B เช่นกันP(B)≠P(B|X)P(B)≠P(B|X)P(B)\neq P(B|X) X มีอิทธิพลต่อ C ซึ่งเป็นX) ไม่เป็นไรเพราะเรารู้ว่า B นั้นลำเอียงโดยความรู้ของเราเกี่ยวกับผลกระทบทางอ้อม X …

2
แบน, คอนจูเกต, และไฮเปอร์ไพรเมอร์ พวกเขาคืออะไร
ฉันกำลังอ่านเกี่ยวกับวิธีการแบบเบย์ในการคำนวณวิวัฒนาการโมเลกุลของหยาง ในหัวข้อที่ 5.2 พูดถึงนักบวช นี่อาจเป็นการขอให้มีการพูดเกินจริง แต่มีคนอธิบายความแตกต่างระหว่างนักบวชประเภทนี้และวิธีการที่มีผลต่อผลลัพธ์ของการวิเคราะห์ / การตัดสินใจที่ฉันจะทำในระหว่างกระบวนการวิเคราะห์แบบเบย์ (ฉันไม่ใช่นักสถิติและฉันเพิ่งเริ่มออกเดินทางเพื่อเรียนรู้การวิเคราะห์แบบเบย์ดังนั้นยิ่งเป็นคนธรรมดามากเท่าไรก็ยิ่งดี)
15 bayesian  prior 

2
การประมาณค่าความแปรปรวนร่วมหลังของเกาวาสหลายตัวแปร
ฉันต้องการ "เรียนรู้" การกระจายตัวของเกาวาสแบบไบวารีที่มีตัวอย่างน้อย แต่เป็นสมมติฐานที่ดีเกี่ยวกับการแจกแจงก่อนหน้าดังนั้นฉันจึงต้องการใช้วิธีแบบเบส์ ฉันกำหนดก่อนหน้านี้: P(μ)∼N(μ0,Σ0)P(μ)∼N(μ0,Σ0) \mathbf{P}(\mathbf{\mu}) \sim \mathcal{N}(\mathbf{\mu_0},\mathbf{\Sigma_0}) μ0=[00] Σ0=[160027]μ0=[00] Σ0=[160027] \mathbf{\mu_0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ \ \mathbf{\Sigma_0} = \begin{bmatrix} 16 & 0 \\ 0 & 27 \end{bmatrix} และการแจกแจงของฉันให้สมมติฐาน P(x|μ,Σ)∼N(μ,Σ)P(x|μ,Σ)∼N(μ,Σ) \mathbf{P}(x|\mathbf{\mu},\mathbf{\Sigma}) \sim \mathcal{N}(\mathbf{\mu},\mathbf{\Sigma}) μ=[00] Σ=[180018]μ=[00] Σ=[180018] \mathbf{\mu} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} \ \ …

2
'วิธีการส่งข้อความ' คืออะไร?
ฉันมีความรู้สึกที่คลุมเครือในสิ่งที่วิธีการส่งข้อความคือ: อัลกอริทึมที่สร้างการประมาณการแจกแจงโดยการสร้างการประมาณซ้ำของปัจจัยการกระจายแบบมีเงื่อนไขในการประมาณทั้งหมดของปัจจัยอื่น ๆ ทั้งหมด ผมเชื่อว่าทั้งสองเป็นตัวอย่างแปรผันข้อความผ่านและคาดว่าจะมีการขยายพันธุ์ ข้อความที่ส่งผ่านอัลกอริทึมอย่างชัดเจน / ถูกต้องคืออะไร ยินดีต้อนรับการอ้างอิง

2
การเชื่อมต่อระหว่างสถิติแบบเบย์และแบบจำลองกำเนิด
ใครสามารถแนะนำฉันอ้างอิงที่ดีที่อธิบายการเชื่อมต่อระหว่างสถิติแบบเบย์และเทคนิคการสร้างแบบจำลองกำเนิด? ทำไมเรามักจะใช้แบบจำลองกำเนิดกับเทคนิคแบบเบย์? ทำไมมันจึงเป็นเรื่องน่าสนใจเป็นพิเศษที่จะใช้สถิติแบบเบย์ในกรณีที่ไม่มีข้อมูลที่สมบูรณ์ถ้าเลย? โปรดทราบว่าฉันมาจากมุมมองการเรียนรู้ของเครื่องมากขึ้นและฉันสนใจที่จะอ่านเพิ่มเติมเกี่ยวกับมันจากชุมชนสถิติ การอ้างอิงที่ดีที่กล่าวถึงประเด็นเหล่านี้จะได้รับการชื่นชมอย่างมาก ขอบคุณ

4
ช่วงความเชื่อมั่นสำหรับพารามิเตอร์การถดถอย: Bayesian vs. Classical
จากสองอาร์เรย์ x และ y ความยาวทั้งสอง n ฉันพอดีกับโมเดล y = a + b * x และต้องการคำนวณช่วงความมั่นใจ 95% สำหรับความชัน นี่คือ (b - delta, b + delta) ซึ่ง b ถูกพบในวิธีปกติและ delta = qt(0.975,df=n-2)*se.slope และ se.slope เป็นข้อผิดพลาดมาตรฐานในความชัน วิธีการหนึ่งที่จะได้รับข้อผิดพลาดมาตรฐานของความลาดชันจาก R summary(lm(y~x))$coef[2,2]คือ ทีนี้สมมติว่าฉันเขียนความน่าจะเป็นของความชันที่ให้ x กับ y คูณนี่ด้วย "แบน" ก่อนแล้วใช้เทคนิค MCMC เพื่อวาดตัวอย่างmจากการกระจายหลัง กำหนด lims = quantile(m,c(0.025,0.975)) คำถามของฉัน: …

2
เงื่อนไขทั้งหมดมาจากการสุ่มตัวอย่างที่กิ๊บส์?
อัลกอริทึม MCMC เช่นการสุ่มตัวอย่าง Metropolis-Hastings และ Gibbs เป็นวิธีการสุ่มตัวอย่างจากการกระจายหลังร่วมกัน ฉันคิดว่าฉันเข้าใจและสามารถนำไปใช้ในการทำให้มหานครสวยได้อย่างง่ายดาย - คุณเพียงแค่เลือกจุดเริ่มต้นอย่างใดอย่างหนึ่งและ 'เดินพื้นที่พารามิเตอร์' โดยการสุ่มนำโดยความหนาแน่นหลังและความหนาแน่นของข้อเสนอ การสุ่มตัวอย่างของกิ๊บส์ดูเหมือนจะคล้ายกันมาก แต่มีประสิทธิภาพมากกว่าเนื่องจากจะอัปเดตพารามิเตอร์ครั้งละหนึ่งเท่านั้นในขณะที่ถือค่าคงตัวอื่น ๆ อย่างมีประสิทธิภาพการเดินบนอวกาศในรูปแบบมุมฉาก ในการดำเนินการนี้คุณต้องมีเงื่อนไขครบถ้วนของแต่ละพารามิเตอร์ในการวิเคราะห์จาก * แต่เงื่อนไขทั้งหมดนี้มาจากไหน P(x1|x2, …, xn)=P(x1, …, xn)P(x2, …, xn)P(x1|x2, …, xn)=P(x1, …, xn)P(x2, …, xn) P(x_1 | x_2,\ \ldots,\ x_n) = \frac{P(x_1,\ \ldots,\ x_n)}{P(x_2,\ \ldots,\ x_n)} ที่จะได้รับส่วนที่คุณจำเป็นต้องเหยียดหยามร่วมกว่าx1x1x_11 ดูเหมือนว่าจะมีการทำงานมากมายที่ต้องทำการวิเคราะห์หากมีพารามิเตอร์จำนวนมากและอาจไม่สามารถจัดการได้หากการกระจายข้อต่อไม่ดีมาก ฉันรู้ว่าถ้าคุณใช้การผันคำกริยาตลอดทั้งโมเดลเงื่อนไขแบบเต็มอาจง่าย แต่ก็ต้องมีวิธีที่ดีกว่าสำหรับสถานการณ์ทั่วไปมากขึ้น ตัวอย่างทั้งหมดของการสุ่มตัวอย่างของกิ๊บส์ที่ฉันเคยเห็นตัวอย่างการใช้ของเล่นออนไลน์ (เช่นการสุ่มตัวอย่างจากตัวแปรหลายตัวแปรซึ่งเงื่อนไขเป็นเพียงบรรทัดฐานของตัวเอง) และดูเหมือนจะหลบปัญหานี้ …
15 bayesian  mcmc  gibbs 

2
มีวิธีมาตรฐานในการจัดการกับปัญหาการสลับฉลากในการประมาณค่า MCMC ของตัวแบบผสมหรือไม่?
การสลับเลเบล (เช่นการกระจายด้านหลังเป็นค่าคงที่สำหรับการสลับเลเบลคอมโพเนนต์) เป็นปัญหาที่มีปัญหาเมื่อใช้ MCMC เพื่อประมาณตัวแบบผสม มีวิธีการมาตรฐาน (ตามที่ยอมรับกันอย่างแพร่หลาย) ในการจัดการกับปัญหานี้หรือไม่? หากไม่มีวิธีการมาตรฐานวิธีการคืออะไรข้อดีข้อเสียของวิธีการชั้นนำในการแก้ปัญหาการเปลี่ยนฉลาก?
15 bayesian  mcmc  mixture 

2
Normalizing ค่าคงที่ในทฤษฎีบท Bayes
Pr(data)Pr(data)\Pr(\textrm{data}) Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)Pr(parameters∣data)=Pr(data∣parameters)Pr(parameters)Pr(data)\Pr(\text{parameters} \mid \text{data}) = \frac{\Pr(\textrm{data} \mid \textrm{parameters}) \Pr(\text{parameters})}{\Pr(\text{data})} เรียกว่าคง normalizing มันคืออะไรกันแน่? จุดประสงค์ของมันคืออะไร? ทำไมมันมีลักษณะเหมือน ? ทำไมมันไม่ขึ้นกับพารามิเตอร์Pr(data)Pr(data)\Pr(data)

5
ความน่าจะเป็นมีมากกว่าเบย์เซียนนิยมหรือไม่
ในฐานะนักเรียนในสาขาฟิสิกส์ฉันเคยมีประสบการณ์การบรรยายเรื่อง "ทำไมฉันถึงเป็นชาวเบย์" บางทีครึ่งโหล มันเหมือนกันเสมอ - ผู้นำเสนออธิบายอย่างไม่ถูกต้องว่าการตีความแบบเบย์นั้นดีกว่าการตีความบ่อยครั้งที่ถูกกล่าวหาว่าใช้โดยมวลชนอย่างไร พวกเขาพูดถึงกฎของเบย์, ชายขอบ, นักบวชและผู้โพสต์ เรื่องจริงคืออะไร มีการบังคับใช้โดเมนที่ถูกต้องตามกฎหมายสำหรับสถิติผู้ใช้บ่อยหรือไม่? (แน่นอนในการสุ่มตัวอย่างหรือกลิ้งตายหลายครั้งต้องใช้?) มีปรัชญาความน่าจะเป็นที่มีประโยชน์นอกเหนือจาก "Bayesian" และ "บ่อยครั้ง" หรือไม่

2
การกระจายก่อนดีสำหรับดีกรีอิสระในการกระจายคืออะไร?
ฉันต้องการใช้ที่การกระจายเพื่อส่งคืนสินทรัพย์ช่วงเวลาสั้น ๆ ในโมเดลแบบเบย์ ฉันต้องการประเมินทั้งองศาอิสระ (พร้อมกับพารามิเตอร์อื่น ๆ ในโมเดลของฉัน) สำหรับการแจกแจง ฉันรู้ว่าผลตอบแทนของสินทรัพย์นั้นไม่ปกติ แต่ฉันไม่รู้มากไปกว่านั้น อะไรคือการแจกแจงก่อนที่เหมาะสมและให้ข้อมูลอย่างละเอียดสำหรับองศาอิสระในโมเดลดังกล่าว?

3
เมื่อใดช่วงความเชื่อมั่น“ สมเหตุสมผล” แต่ช่วงเวลาที่น่าเชื่อถือนั้นไม่สอดคล้องกัน?
มันมักจะเป็นกรณีที่ช่วงความเชื่อมั่นที่มีความคุ้มครอง 95% จะคล้ายกันมากกับช่วงเวลาที่น่าเชื่อถือที่มี 95% ของความหนาแน่นหลัง สิ่งนี้เกิดขึ้นเมื่อชุดก่อนหน้านั้นเหมือนกันหรือใกล้เคียงในกรณีหลัง ดังนั้นช่วงความมั่นใจมักจะถูกใช้เพื่อประมาณช่วงเวลาที่น่าเชื่อถือและในทางกลับกัน ที่สำคัญเราสามารถสรุปได้ว่าสิ่งนี้เป็นการตีความที่ผิดพลาดอย่างมากของช่วงความเชื่อมั่นเนื่องจากช่วงเวลาที่น่าเชื่อถือนั้นมีความสำคัญเพียงเล็กน้อยถึงไม่มีประโยชน์เลยสำหรับกรณีการใช้งานที่ง่าย มีตัวอย่างจำนวนมากที่มีกรณีที่สิ่งนี้ไม่ได้เกิดขึ้นอย่างไรก็ตามพวกเขาทั้งหมดดูเหมือนจะถูกเชอร์รี่โดยผู้สนับสนุนของ Bayesian stats ในความพยายามที่จะพิสูจน์ว่ามีบางอย่างผิดปกติกับวิธีการที่ใช้บ่อย ในตัวอย่างเหล่านี้เราจะเห็นช่วงความมั่นใจมีค่าที่เป็นไปไม่ได้ ฯลฯ ซึ่งควรจะแสดงว่าไร้สาระ ฉันไม่ต้องการกลับไปดูตัวอย่างเหล่านั้นหรือการอภิปรายเชิงปรัชญาของ Bayesian vs Frequentist ฉันแค่กำลังมองหาตัวอย่างของสิ่งที่ตรงกันข้าม มีกรณีใดบ้างที่ความมั่นใจและช่วงเวลาที่เชื่อถือได้แตกต่างกันอย่างมีนัยสำคัญและช่วงเวลาที่กำหนดโดยขั้นตอนความเชื่อมั่นนั้นเหนือกว่าอย่างชัดเจนหรือไม่ ในการชี้แจง: นี่เป็นเรื่องเกี่ยวกับสถานการณ์ที่คาดว่าช่วงเวลาที่น่าเชื่อถือจะตรงกับช่วงความเชื่อมั่นที่สอดคล้องกันเช่นเมื่อใช้แบบแฟลตเครื่องแบบและนักบวช ฯลฯ ฉันไม่สนใจในกรณีที่มีคนเลือกที่ไม่ดีโดยพลการมาก่อน แก้ไข: เพื่อตอบสนองต่อคำตอบของ @JaeHyeok Shin ด้านล่างฉันต้องไม่เห็นด้วยว่าตัวอย่างของเขาใช้โอกาสที่ถูกต้อง ฉันใช้การคำนวณแบบเบย์โดยประมาณเพื่อประเมินการกระจายหลังที่ถูกต้องสำหรับทีต้าด้านล่างใน R: ### Methods ### # Packages require(HDInterval) # Define the likelihood like <- function(k = 1.2, theta = 0, …

1
Hamiltonian Monte Carlo สำหรับหุ่น
คุณช่วยอธิบายทีละขั้นตอนเกี่ยวกับวิธีการทำงานของ Hamiltonian Monte Carlo ได้ไหม? PS: ฉันได้อ่านคำตอบที่นี่แล้วHamiltonian monte carloและที่นี่Hamiltonian Monte Carlo กับ Sequential Monte Carloและที่นี่Hamiltonian Monte Carlo: จะทำให้รู้สึกถึงข้อเสนอของ Metropolis-Hasting อย่างไร และพวกเขาไม่ได้กล่าวถึงอย่างเป็นขั้นเป็นตอน
14 bayesian  hmc 

4
ความน่าจะเป็นที่สมมติฐานของ Null นั้นเป็นจริง
ดังนั้นนี่อาจเป็นคำถามทั่วไป แต่ฉันไม่เคยพบคำตอบที่น่าพอใจ คุณจะตัดสินความน่าจะเป็นที่สมมติฐานว่างเป็นจริงได้อย่างไร (หรือเท็จ) สมมติว่าคุณให้นักเรียนทดสอบสองรุ่นที่แตกต่างกันและต้องการดูว่ารุ่นนั้นเทียบเท่ากันหรือไม่ คุณทำการทดสอบ t และให้ค่า p เป็น. 02 ช่างเป็นสิ่งที่คุ้มค่า! นั่นต้องหมายความว่าไม่น่าเป็นไปได้ที่การทดสอบจะเทียบเท่ากันใช่มั้ย ไม่น่าเสียดายที่ปรากฏว่า P (ผลลัพธ์ | null) ไม่ได้บอกคุณ P (null | ผลลัพธ์) สิ่งปกติที่ต้องทำคือการปฏิเสธสมมติฐานว่างเมื่อเราพบ p-value ต่ำ แต่เราจะรู้ได้อย่างไรว่าเราไม่ปฏิเสธสมมติฐานว่างที่น่าจะเป็นจริง? เพื่อยกตัวอย่างที่โง่ฉันสามารถออกแบบการทดสอบสำหรับอีโบลาด้วยอัตราบวกที่ผิดพลาดที่. 02: ใส่ 50 ลูกลงในถังและเขียน“ อีโบลา” ในที่เดียว ถ้าฉันทดสอบบางคนด้วยสิ่งนี้และพวกเขาเลือกลูกบอล "อีโบลา" ค่า p (P (เลือกลูก | พวกเขาไม่มีอีโบลา)) คือ. 02 สิ่งที่ฉันได้พิจารณาแล้ว: สมมติว่า P (null | ผลลัพธ์) …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.