คำถามติดแท็ก conjugate-prior

การแจกแจงก่อนหน้าในสถิติแบบเบย์ที่เป็นเช่นนั้นเมื่อรวมกับความเป็นไปได้ผลที่เกิดขึ้นหลังมาจากการแจกแจงตระกูลเดียวกัน

2
ทำไมดิริเคิลถึงกระจายก่อนหน้านี้สำหรับการกระจายแบบหลายส่วน
ในอัลกอริทึมแบบจำลองหัวข้อ LDA ฉันเห็นสมมติฐานนี้ แต่ฉันไม่รู้ว่าทำไมจึงเลือกการกระจาย Dirichlet ฉันไม่รู้ว่าเราสามารถใช้การกระจายแบบเครื่องแบบผ่าน Multinomial เป็นคู่ได้หรือไม่?


4
ทุกคนสามารถอธิบายคำพ้องกันในรูปแบบที่ง่ายที่สุดได้ไหม?
ฉันพยายามทำความเข้าใจความคิดของนักบวชในสถิติ Bayesian มาระยะหนึ่งแล้ว แต่ฉันก็ไม่เข้าใจ ทุกคนสามารถอธิบายแนวคิดดังกล่าวด้วยคำศัพท์ที่ง่ายที่สุดที่เป็นไปได้หรืออาจใช้ตัวอย่าง "เสียนมาก่อน" เป็นตัวอย่าง?

3
เคยมีคอนจูเกตก่อนหน้า: ทรัพย์สินลึกหรืออุบัติเหตุทางคณิตศาสตร์
การแจกแจงบางอย่างมีคอนจูเกตคอนจูเกตและบางอันไม่มี ความแตกต่างนี้เป็นเพียงอุบัติเหตุหรือไม่? นั่นคือคุณทำคณิตศาสตร์และมันได้ผลในทางใดทางหนึ่ง แต่มันไม่ได้บอกอะไรที่สำคัญเกี่ยวกับการแจกแจงยกเว้นความจริงด้วยตัวเอง? หรือการมีหรือไม่มีคอนจูเกตก่อนสะท้อนถึงคุณสมบัติที่ลึกกว่าของการแจกแจงหรือไม่? การแจกแจงกับนักบวชสังฆะแบ่งปันคุณสมบัติที่น่าสนใจอื่น ๆ หรือคุณสมบัติที่การกระจายอื่น ๆ ขาดที่ทำให้เกิดการกระจายเหล่านั้นและไม่ใช่ผู้อื่นที่จะมีการผันก่อนหน้านี้?

3
การปรับปรุงแบบเบย์ด้วยข้อมูลใหม่
เราจะคำนวณหาด้านหลังด้วย N ~ (a, b) ก่อนหลังจากสังเกตจุดข้อมูลได้อย่างไร ฉันคิดว่าเราต้องคำนวณค่าเฉลี่ยตัวอย่างและความแปรปรวนของจุดข้อมูลและทำการคำนวณบางอย่างที่รวมหลังกับก่อนหน้านี้ แต่ฉันไม่แน่ใจว่าสูตรการรวมกันเป็นอย่างไร

1
มีคอนจูเกตก่อนหน้าการกระจาย Laplace หรือไม่?
มีคอนจูเกตก่อนหน้าการกระจาย Laplaceหรือไม่? ถ้าไม่เป็นเช่นนั้นมีการแสดงออกของรูปแบบปิดที่รู้จักกันซึ่งใกล้เคียงกับหลังสำหรับพารามิเตอร์ของการกระจาย Laplace หรือไม่? ฉันไปรอบ ๆ ค่อนข้างมากโดยไม่ประสบความสำเร็จดังนั้นการเดาปัจจุบันของฉันคือ "ไม่" สำหรับคำถามด้านบน ...

2
เหตุผลสำหรับการผันก่อน?
นอกจากการใช้งานแล้วยังมีเหตุผลอื่นใด (ทางคณิตศาสตร์, ปรัชญา, ฮิวริสติก, ฯลฯ ) สำหรับการใช้นักบวชคอนจูเกตหรือไม่? หรือมันเป็นเพียงแค่ว่าโดยปกติแล้วจะเป็นการประมาณที่ดีพอและทำให้สิ่งต่าง ๆ ง่ายขึ้นมาก?

2
พารามิเตอร์ด้านหลังของ Wishart-Wishart คืออะไร?
เมื่อ infering ความแม่นยำเมทริกซ์ของการกระจายปกติใช้ในการสร้างNเวกเตอร์ D-มิติx 1 , . , x N x iΛΛ\boldsymbol{\Lambda}ยังไม่มีข้อความNNx1, . . , xยังไม่มีข้อความx1,..,xN\mathbf{x_1},..,\mathbf{x_N} เรามักจะวาง Wishart ไว้ก่อนหน้าΛเนื่องจากการแจกแจง Wishart นั้นเป็นคอนจูเกตก่อนที่จะมีการตกตะกอนของการแจกแจงปกติแบบหลายตัวแปรที่มีค่าเฉลี่ยและตัวแปรที่ไม่รู้จัก: knownxi∼N(μ,Λ−1)xi∼N(μ,Λ−1)\begin{align} \mathbf{x_i} &\sim \mathcal{N}(\boldsymbol{\mu, \Lambda^{-1}}) \\ \end{align}ΛΛ\boldsymbol{\Lambda} ที่υเป็นองศาอิสระและΛ0เมทริกซ์ขนาด ในการเพิ่มความทนทานและความยืดหยุ่นให้กับโมเดลเราได้ใส่ไฮเปอร์ไพรส์ไว้เหนือพารามิเตอร์ของ Wishart ตัวอย่างเช่นGörürและ Rasmussenแนะนำ: Λ 0Λ∼W(υ,Λ0)Λ∼W(υ,Λ0)\begin{align} \mathbf{\Lambda} &\sim \mathcal{W}(\upsilon, \boldsymbol{\Lambda_0}) \\ \end{align}υυ\upsilonΛ0Λ0\boldsymbol{\Lambda_0} โดยที่Gคือ tha Gamma distributionΛ01υ−D+1∼W(D,1DΛx)∼G(1,1D)Λ0∼W(D,1DΛx)1υ−D+1∼G(1,1D)\begin{align} \mathbf{\Lambda_0} &\sim \mathcal{W}(D, \frac{1}{D}\boldsymbol{\Lambda_x}) \\ …

2
ตัวประมาณเบย์นั้นมีภูมิคุ้มกันต่อการเลือกอคติ
ตัวประมาณของ Bayes มีภูมิคุ้มกันต่อการเลือกอคติหรือไม่? เอกสารส่วนใหญ่ที่กล่าวถึงการประมาณค่าในมิติที่สูงเช่นข้อมูลลำดับจีโนมทั้งหมดมักจะทำให้เกิดปัญหาอคติในการคัดเลือก ความลำเอียงที่เลือกเกิดขึ้นจากข้อเท็จจริงที่ว่าแม้ว่าเรามีผู้ทำนายที่มีศักยภาพหลายพันคนเท่านั้นที่จะได้รับการคัดเลือกเพียงไม่กี่คนเท่านั้น ดังนั้นกระบวนการจึงมีสองขั้นตอน: (1) เลือกชุดย่อยของตัวทำนาย (2) ทำการอนุมานบนชุดที่เลือกเช่นประมาณอัตราต่อรอง Dawid ในกระดาษที่ขัดกันในปี 1994 ของเขามุ่งเน้นไปที่ตัวประมาณค่าที่เป็นกลางและตัวประมาณ Bayes เขาลดความยุ่งยากของปัญหาในการเลือกเอฟเฟกต์ที่ใหญ่ที่สุดซึ่งอาจเป็นผลการรักษา จากนั้นเขาก็บอกว่าตัวประมาณที่ไม่เอนเอียงได้รับผลกระทบจากอคติการคัดเลือก เขาใช้ตัวอย่าง: สมมติว่า จากนั้นแต่ละอันZi∼N(δi,1),i=1,…,NZi∼N(δi,1),i=1,…,N Z_i\sim N(\delta_i,1),\quad i=1,\ldots,N ZiZiZ_iเป็นกลางสำหรับ\ปล่อย , ตัวประมาณ อย่างไรก็ตามเอนเอียง ( บวก) สำหรับ\ สูงสุด \ {\ delta_1 \ delta_2 \ ldots \ delta_N \} ข้อความนี้สามารถพิสูจน์ได้อย่างง่ายดายด้วยความไม่เท่าเทียมของ Jensen ดังนั้นหากเรารู้ว่าi _ {\ max}ดัชนีของ\ delta_i ที่ใหญ่ที่สุดเราจะใช้Z_ {i …

3
การทำความเข้าใจคอนจูเกตเบต้าก่อนการอนุมานแบบเบย์เกี่ยวกับความถี่
ต่อไปนี้เป็นข้อความที่ตัดตอนมาจาก Bolstad ของรู้เบื้องต้นเกี่ยวกับคชกรรมสถิติ สำหรับสิ่งที่คุณผู้เชี่ยวชาญออกมีนี้อาจจะมีเล็ก ๆ น้อย ๆ แต่ผมไม่เข้าใจว่าผู้เขียนสรุปว่าเราไม่ต้องทำใด ๆ รวมในการคำนวณความน่าจะเป็นหลังมูลค่าของบาง\ผมเข้าใจการแสดงออกที่สองซึ่งเป็นสัดส่วนและสถานที่ที่เงื่อนไขทั้งหมดมาจาก ( โอกาส x ก่อน) นอกจากนี้ฉันเข้าใจว่าเราไม่ต้องกังวลเกี่ยวกับตัวส่วนเนื่องจากตัวเศษมีสัดส่วนโดยตรง แต่ย้ายไปยังสมการที่สามเราไม่ลืมเกี่ยวกับตัวส่วนของกฎเบย์ มันไปไหน และค่าที่คำนวณโดยฟังก์ชันแกมม่านั้นไม่ใช่ค่าคงที่ใช่หรือไม่ ค่าคงที่ไม่ได้ยกเลิกในทฤษฎีบทเบย์หรือไม่ππ\pi

1
รูปแบบการเรียนรู้แบบลึกใดที่สามารถจำแนกหมวดหมู่ที่ไม่ได้เกิดร่วมกัน
ตัวอย่าง: ฉันมีประโยคในรายละเอียดงาน: "วิศวกรอาวุโสของ Java ในสหราชอาณาจักร" ฉันต้องการที่จะใช้รูปแบบการเรียนรู้ที่ลึกที่จะคาดการณ์ว่ามันเป็น 2 ประเภทและEnglish IT jobsถ้าฉันใช้รูปแบบการจำแนกแบบดั้งเดิมมันสามารถทำนายได้เพียง 1 ฉลากที่มีsoftmaxฟังก์ชั่นที่ชั้นสุดท้าย ดังนั้นฉันสามารถใช้โครงข่ายประสาทเทียม 2 แบบในการทำนาย "ใช่" / "ไม่" กับทั้งสองหมวดหมู่ แต่ถ้าเรามีหมวดหมู่มากขึ้นมันก็แพงเกินไป ดังนั้นเราจึงมีรูปแบบการเรียนรู้หรือการเรียนรู้ด้วยเครื่องเพื่อคาดการณ์ 2 หมวดหมู่ขึ้นไปพร้อมกันหรือไม่ "แก้ไข": ด้วย 3 ป้ายกำกับโดยวิธีดั้งเดิมมันจะถูกเข้ารหัสโดย [1,0,0] แต่ในกรณีของฉันมันจะถูกเข้ารหัสโดย [1,1,0] หรือ [1,1,1] ตัวอย่าง: หากเรามี 3 ป้ายกำกับและประโยคอาจเหมาะกับป้ายกำกับเหล่านี้ทั้งหมด ดังนั้นถ้าผลลัพธ์จากฟังก์ชัน softmax คือ [0.45, 0.35, 0.2] เราควรแบ่งมันออกเป็น 3 label หรือ 2 label หรืออาจเป็นหนึ่ง? ปัญหาหลักเมื่อเราทำคือ: …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.