คำถามติดแท็ก likelihood

ให้ตัวแปรสุ่มซึ่งเกิดขึ้นจากการแจกแจงแบบแปรผันความน่าจะเป็นถูกกำหนดให้เป็นความน่าจะเป็นของข้อมูลที่สังเกตได้จากการทำงานของXF(X;θ)θ:L(θ)=P(θ;X=x)

10
"โอกาส" และ "โอกาส" แตกต่างกันอย่างไร?
หน้าวิกิพีเดียบอกว่าโอกาสและความน่าจะเป็นแนวความคิดที่แตกต่างกัน ในการพูดจาที่ไม่ใช่ด้านเทคนิค "ความน่าจะเป็น" มักจะเป็นคำพ้องสำหรับ "ความน่าจะเป็น" แต่ในการใช้งานทางสถิติมีความแตกต่างที่ชัดเจนในมุมมอง: หมายเลขที่เป็นความน่าจะเป็นของผลลัพธ์ที่สังเกตได้บางอย่าง ความน่าจะเป็นของชุดค่าพารามิเตอร์ที่กำหนดผลลัพธ์ที่สังเกตได้ บางคนสามารถให้คำอธิบายเกี่ยวกับสิ่งนี้ได้มากขึ้นตามความหมายของโลก? นอกจากนี้ตัวอย่างของความน่าจะเป็น "ความน่าจะเป็น" และ "ความน่าจะเป็น" ก็ดี

3
ตัวอย่าง: การถดถอย LASSO โดยใช้ glmnet สำหรับผลลัพธ์ไบนารี
ฉันเริ่มตะลุยกับการใช้งานglmnetกับการถดถอยแบบ LASSOซึ่งผลลัพธ์ของความสนใจของฉันนั้นเป็นแบบขั้วคู่ ฉันได้สร้างกรอบข้อมูลจำลองขนาดเล็กด้านล่าง: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 


4
ฉันสงสัยว่าทำไมเราจึงใช้โอกาสในการลบ (บันทึก) ในบางครั้ง
คำถามนี้ทำให้ฉันงงงวยมานาน ฉันเข้าใจการใช้ 'บันทึก' เพื่อเพิ่มโอกาสในการเพิ่มดังนั้นฉันจึงไม่ถามเกี่ยวกับ 'บันทึก' คำถามของฉันคือเนื่องจากการเพิ่มความน่าจะเป็นบันทึกเท่ากับการลด "ความน่าจะเป็นในการลบเชิงลบ" (NLL) ทำไมเราจึงประดิษฐ์ NLL นี้ ทำไมเราไม่ใช้ "โอกาสที่ดี" ตลอดเวลา? ได้รับการสนับสนุนในกรณีใดบ้าง ฉันพบคำอธิบายเล็กน้อยที่นี่ https://quantivity.wordpress.com/2011/05/23/why-minimize-negative-log-likelihood/แต่ดูเหมือนว่าจะอธิบายการเทียบเท่าที่เห็นได้ชัดในส่วนลึก แต่ไม่ได้แก้ปัญหาความสับสนของฉัน คำอธิบายใด ๆ ที่จะได้รับการชื่นชม

7
ทำไมบางคนจะใช้วิธีการแบบเบย์กับวิธีการที่ 'ไม่เป็นทางการ' ก่อนหน้าแทนที่จะเป็นวิธีแบบดั้งเดิม?
หากความสนใจเป็นเพียงการประมาณค่าพารามิเตอร์ของแบบจำลอง (การประมาณค่าแบบจุดและ / หรือช่วงเวลา) และข้อมูลก่อนหน้านี้ไม่น่าเชื่อถืออ่อนแอ (ฉันรู้ว่านี่เป็นบิตที่คลุมเครือ แต่ฉันพยายามสร้างสถานการณ์ที่เลือก ก่อนหน้านี้เป็นเรื่องยาก) ... ทำไมบางคนเลือกที่จะใช้วิธีการแบบเบย์กับนักบวชที่ไม่เหมาะสมแทนที่จะเป็นแบบดั้งเดิม

9
เหตุใดผู้คนจึงใช้ค่า p แทนการคำนวณความน่าจะเป็นของแบบจำลองที่ให้ข้อมูล
การพูดค่า p-value โดยประมาณให้ความน่าจะเป็นของผลลัพธ์ที่สังเกตได้ของการทดลองที่กำหนดสมมติฐาน (model) การมีความน่าจะเป็นนี้ (p-value) เราต้องการตัดสินสมมติฐานของเรา แต่มันจะไม่เป็นธรรมชาติหรือที่จะคำนวณความน่าจะเป็นของสมมติฐานที่ได้จากผลลัพธ์ที่สังเกตได้หรือไม่ ในรายละเอียดเพิ่มเติม เรามีเหรียญ เราพลิกมัน 20 ครั้งและเราได้ 14 หัว (14 จาก 20 คือสิ่งที่ฉันเรียกว่า "ผลลัพธ์ของการทดสอบ") ทีนี้สมมุติฐานของเราคือว่าเหรียญมีความยุติธรรม (ความน่าจะเป็นของหัวและหางมีค่าเท่ากัน) ตอนนี้เราคำนวณค่า p ซึ่งเท่ากับความน่าจะเป็นที่จะได้ 14 หรือมากกว่าใน 20 เหรียญ ตกลงตอนนี้เรามีความน่าจะเป็นนี้ (0.058) และเราต้องการใช้ความน่าจะเป็นนี้ในการตัดสินแบบจำลองของเรา (เป็นไปได้อย่างไรที่เรามีเหรียญที่ยุติธรรม) แต่ถ้าเราต้องการประเมินความน่าจะเป็นของโมเดลทำไมเราไม่คำนวณความน่าจะเป็นของโมเดลที่ได้รับจากการทดสอบ ทำไมเราจึงคำนวณความน่าจะเป็นของการทดสอบที่ได้รับจากแบบจำลอง (p-value)

3
วิธีการกำหนดโอกาสอย่างจริงจัง?
โอกาสที่สามารถกำหนดได้หลายวิธีตัวอย่างเช่น: ฟังก์ชั่นจากซึ่งแผนที่เพื่อเช่น{R}LLLΘ×XΘ×X\Theta\times{\cal X}(θ,x)(θ,x)(\theta,x)L(θ∣x)L(θ∣x)L(\theta \mid x)L:Θ×X→RL:Θ×X→RL:\Theta\times{\cal X} \rightarrow \mathbb{R} ฟังก์ชั่นแบบสุ่มL(⋅∣X)L(⋅∣X)L(\cdot \mid X) เราอาจพิจารณาได้ว่าความน่าจะเป็นเป็นเพียงโอกาส "สังเกต"L(⋅∣xobs)L(⋅∣xobs)L(\cdot \mid x^{\text{obs}}) ในทางปฏิบัติความน่าจะเป็นที่นำข้อมูลไปสู่ขึ้นอยู่กับค่าคงที่แบบ multiplicative เท่านั้นดังนั้นเราจึงสามารถพิจารณาความเป็นไปได้ว่าเป็นคลาสเทียบเท่าของฟังก์ชันแทนที่จะเป็นฟังก์ชันθθ\theta อีกคำถามที่เกิดขึ้นเมื่อพิจารณาการเปลี่ยนแปลงของ parametrization: ถ้าเป็น parameterization ใหม่ที่เรามักจะแสดงโดยโอกาสในและนี่ไม่ใช่การประเมินฟังก์ชั่นก่อนหน้าที่แต่ในพี} นี่คือเครื่องหมายที่ไม่เหมาะสม แต่มีประโยชน์ซึ่งอาจทำให้เกิดความยุ่งยากสำหรับผู้เริ่มต้นหากไม่ได้เน้นϕ=θ2ϕ=θ2\phi=\theta^2L(ϕ∣x)L(ϕ∣x)L(\phi \mid x)ϕϕ\phiL(⋅∣x)L(⋅∣x)L(\cdot \mid x)θ2θ2\theta^2ϕ−−√ϕ\sqrt{\phi} คำจำกัดความที่คุณชื่นชอบอย่างเข้มงวดของความน่าจะเป็นคืออะไร? นอกจากนี้คุณจะเรียกอย่างไร ฉันมักจะพูดว่า "ความน่าจะเป็นในเมื่อสังเกต "L(θ∣x)L(θ∣x)L(\theta \mid x)θθ\thetaxxx แก้ไข: ในมุมมองของความคิดเห็นด้านล่างฉันรู้ว่าฉันควรจะมีบริบท ฉันพิจารณาแบบจำลองทางสถิติที่กำหนดโดยตระกูลพารามิเตอร์ของความหนาแน่นที่เกี่ยวกับการวัดที่มีอิทธิพลเหนือแต่ละอันที่มีกำหนดไว้ในพื้นที่สังเกตX} ดังนั้นเราจึงกำหนดและคำถามคือ "คืออะไร?" (คำถามไม่ได้เกี่ยวกับความหมายทั่วไปของความน่าจะเป็น)ฉ( ⋅ | θ ) X L ( θ …

3
ข้อมูลฟิชเชอร์เป็นข้อมูลประเภทใด?
สมมติว่าเรามีตัวแปรสุ่มtheta) ถ้าเป็นพารามิเตอร์จริงฟังก์ชันความน่าจะเป็นควรขยายให้ใหญ่สุดและอนุพันธ์เท่ากับศูนย์ นี่คือหลักการพื้นฐานที่อยู่เบื้องหลังตัวประมาณค่าความน่าจะเป็นสูงสุดX∼f(x|θ)X~ฉ(x|θ)X \sim f(x|\theta)θ0θ0\theta_0 ตามที่ฉันเข้าใจแล้วข้อมูลฟิชเชอร์ถูกกำหนดให้เป็น I(θ)=E[(∂∂θf(X|θ))2]ผม(θ)=E[(∂∂θฉ(X|θ))2]I(\theta) = \Bbb E \Bigg[\left(\frac{\partial}{\partial \theta}f(X|\theta)\right)^2\Bigg ] ดังนั้นหากเป็นพารามิเตอร์ที่จริง0 แต่ถ้ามันไม่ใช่พารามิเตอร์จริงเราจะมีข้อมูลฟิชเชอร์จำนวนมากขึ้นθ0θ0\theta_0I(θ)=0ผม(θ)=0I(\theta) = 0θ0θ0\theta_0 คำถามของฉัน ข้อมูล Fisher ทำการวัด "ข้อผิดพลาด" ของ MLE ที่กำหนดหรือไม่ กล่าวอีกนัยหนึ่งการมีอยู่ของข้อมูลฟิชเชอร์ในเชิงบวกไม่ได้หมายความว่า MLE ของฉันไม่เหมาะอย่างยิ่งหรือ คำจำกัดความของ "ข้อมูล" นี้แตกต่างจากที่ Shannon ใช้อย่างไร ทำไมเราถึงเรียกมันว่าข้อมูล?

3
การใช้งานเชิงประจักษ์ของความเป็นไปได้เชิงประจักษ์มีอะไรบ้าง
ฉันเคยได้ยินความน่าจะเป็นเชิงประจักษ์ของโอเว่น แต่จนกระทั่งเมื่อไม่นานมานี้มันก็ไม่ต้องสนใจจนกระทั่งฉันเจอมันในกระดาษดอกเบี้ย ( Mengersen et al. 2012 ) ในความพยายามของฉันที่จะเข้าใจฉันได้รวบรวมว่าโอกาสที่ข้อมูลที่สังเกตได้จะแสดงเป็น ที่และ0L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L=∏ipi=∏iP(Xi=x)=∏iP(Xi≤x)−P(Xi<x)L = \prod_i p_i = \prod_i P(X_i=x) = \prod_i P(X_i \le x) - P(X_i \lt x)∑ipi=1∑ipi=1\sum_i p_i = 1pi>0pi>0p_i > 0 อย่างไรก็ตามฉันไม่สามารถทำให้การก้าวกระโดดทางจิตที่เชื่อมโยงการเป็นตัวแทนนี้กับวิธีที่มันสามารถใช้ในการอ้างถึงเกี่ยวกับการสังเกต บางทีฉันอาจหยั่งรากเกินไปในการคิดถึงพารามิเตอร์ความน่าจะเป็นของโมเดล ไม่ว่าฉันกำลังค้นหา Google Scholar สำหรับกระดาษบางเล่มที่ใช้โอกาสเชิงประจักษ์ที่จะช่วยฉันกำหนดแนวคิด ... เพื่อประโยชน์ เห็นได้ชัดว่ามีหนังสือของ Art Owen เกี่ยวกับความเป็นไปได้ในเชิงประจักษ์แต่ Google Books หลุดพ้นความน่าเบื่อไปหมดแล้วและฉันยังอยู่ในขั้นตอนการขอสินเชื่อระหว่างห้องสมุดที่ช้า ในขณะเดียวกันใครบางคนสามารถชี้แนะฉันไปที่เอกสารและเอกสารที่แสดงให้เห็นอย่างชัดเจนถึงความเป็นไปได้ในเชิงประจักษ์และวิธีการใช้งาน? ตัวอย่างคำอธิบายของ EL ก็ยินดีด้วยเช่นกัน!

5
ความเป็นไปได้ของ Wikipedia
ฉันมีคำถามง่ายๆเกี่ยวกับ "ความน่าจะเป็นตามเงื่อนไข" และ "โอกาส" (ฉันได้สำรวจคำถามนี้ที่นี่แล้วแต่ไม่มีประโยชน์) มันเริ่มต้นจากหน้า Wikipedia ตามความเป็นไปได้ พวกเขาพูดแบบนี้: ความน่าจะเป็นของชุดของค่าพารามิเตอร์, θθ\theta , ให้ผลลัพธ์xxx , เท่ากับความน่าจะเป็นของผลลัพธ์ที่สังเกตได้จากค่าพารามิเตอร์เหล่านั้น, นั่นคือ L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) ที่ดี! ดังนั้นในภาษาอังกฤษฉันอ่านสิ่งนี้ว่า: "ความน่าจะเป็นของพารามิเตอร์ที่เท่ากับทีต้า, รับข้อมูล X = x, (ทางซ้ายมือ), เท่ากับความน่าจะเป็นของข้อมูล X ที่เท่ากับ x, เนื่องจากพารามิเตอร์นั้น เท่ากับทีต้า " ( ตัวหนาเป็นของฉันสำหรับการเน้น ) อย่างไรก็ตามไม่น้อยกว่า 3 บรรทัดในหน้าเดียวกันรายการ Wikipedia ก็จะกล่าวต่อไปว่า: ให้XXXเป็นตัวแปรสุ่มที่มีต่อเนื่องกระจาย pppขึ้นอยู่กับพารามิเตอร์θθθ\thetaจากนั้นฟังก์ชั่น L(θ∣x)=pθ(x)=Pθ(X=x),L(θ∣x)=pθ(x)=Pθ(X=x),\mathcal{L}(\theta \mid …

1
การคำนวณความเป็นไปได้ที่จะเกิดจากกลุ่มตัวอย่าง MCMC
นี่เป็นคำถามที่เกิดขึ้น (ดูโพสต์นี้ , โพสต์นี้และโพสต์นี้ ) แต่ฉันมีสปินที่แตกต่างกัน สมมติว่าฉันมีกลุ่มตัวอย่างจากตัวอย่าง MCMC ทั่วไป สำหรับแต่ละตัวอย่างθθ\thetaฉันรู้ค่าของการบันทึกความเป็นไปได้เข้าสู่ระบบฉ( x | θ )เข้าสู่ระบบ⁡ฉ(x|θ)\log f(\textbf{x} | \theta)และเข้าสู่ระบบก่อนเข้าสู่ระบบฉ( θ )เข้าสู่ระบบ⁡ฉ(θ)\log f(\theta) ) ถ้ามันช่วยได้ฉันก็รู้ค่าของความน่าจะเป็นของการบันทึกต่อจุดข้อมูล, เข้าสู่ระบบฉ( xผม| θ)เข้าสู่ระบบ⁡ฉ(xผม|θ)\log f(x_i | \theta) (ข้อมูลนี้ช่วยในวิธีการบางอย่างเช่น WAIC และ PSIS-LOO) ฉันต้องการที่จะได้รับ (น้ำมันดิบ) ประมาณการของโอกาสร่อแร่เพียงกับกลุ่มตัวอย่างที่ฉันมีและอาจจะไม่กี่การประเมินผลการทำงานอื่น ๆ ( แต่ไม่ rerunning เฉพาะกิจ MCMC) ก่อนอื่นมาล้างตารางกันก่อน เราทุกคนรู้ว่าตัวประมาณค่าฮาร์มอนิกเป็นตัวประมาณที่แย่ที่สุดที่เคยมีมา ไปกันเถอะ หากคุณกำลังทำตัวอย่างกิ๊บส์กับนักบวชและผู้โพสต์ในรูปแบบปิดคุณสามารถใช้วิธีการของ Chib ; แต่ฉันไม่แน่ใจว่าจะพูดคุยกันนอกเรื่องเหล่านี้ได้อย่างไร นอกจากนี้ยังมีวิธีการที่ต้องการให้คุณปรับเปลี่ยนขั้นตอนการสุ่มตัวอย่าง (เช่นผ่านทางโปสเตอร์ที่มีอารมณ์ …

5
ทฤษฎีบทของเบย์
ฉันได้รับการพยายามที่จะพัฒนาสัญชาตญาณพื้นฐานของการทำความเข้าใจทฤษฎีบท Bayes' ในแง่ของก่อน , หลัง , ความน่าจะเป็นและร่อแร่ความน่าจะเป็น ด้วยเหตุนี้ฉันจึงใช้สมการต่อไปนี้: โดยที่แทนสมมติฐานหรือความเชื่อและแทนข้อมูลหรือหลักฐาน ฉันเข้าใจแนวคิดของคนหลัง - มันเป็นเอนทิตี้แบบรวมที่รวมความเชื่อก่อนหน้านี้และความน่าจะเป็นของเหตุการณ์ สิ่งที่ฉันไม่เข้าใจคือโอกาสที่จะมีความหมายอะไร และทำไมถึงเป็นชายขอบP(B|A)=P(A|B)P(B)P(A)P(B|A)=P(A|B)P(B)P(A)P(B|A) = \frac{P(A|B)P(B)}{P(A)}AAABBBน่าจะเป็นในส่วนหรือไม่ หลังจากตรวจสอบแหล่งข้อมูลสองสามข้อฉันพบคำพูดนี้: ความน่าจะเป็นคือน้ำหนักของเหตุการณ์กำหนดโดยการเกิดของ ...คือความน่าจะเป็นหลังของเหตุการณ์เนื่องจากเหตุการณ์เกิดขึ้นBBBAAAP(B|A)P(B|A)P(B|A)BBBAAA ข้อความ 2 ข้อข้างต้นดูเหมือนกับฉันเพิ่งเขียนในรูปแบบที่แตกต่างกัน ใครช่วยอธิบายความแตกต่างระหว่างสองคนนี้ได้ไหม?

3
มีความแตกต่างระหว่างผู้ถี่ถ้วนและเบย์ในคำจำกัดความของความน่าจะเป็นหรือไม่?
บางแหล่งกล่าวว่าฟังก์ชันความน่าจะเป็นไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไขบางคนบอกว่าเป็น นี่ทำให้ฉันสับสนมาก จากแหล่งข้อมูลส่วนใหญ่ที่ฉันเคยเห็นความน่าจะเป็นของการกระจายด้วยพารามิเตอร์ควรเป็นผลคูณของฟังก์ชันความน่าจะเป็นที่ได้รับจากตัวอย่างของ :θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) ตัวอย่างเช่นใน Logistic Regression เราใช้อัลกอริธึมการปรับให้เหมาะสมเพื่อเพิ่มฟังก์ชั่นความน่าจะเป็นสูงสุด (การประมาณความน่าจะเป็นสูงสุด) เพื่อให้ได้พารามิเตอร์ที่ดีที่สุด จากตัวอย่างการฝึกอบรมซึ่งเราคิดว่าเป็นอิสระจากกันเราต้องการเพิ่มผลลัพธ์ของความน่าจะเป็นสูงสุด (หรือฟังก์ชั่นมวลความน่าจะเป็นร่วม) ดูเหมือนว่าฉันจะค่อนข้างชัดเจนnnn ตามความสัมพันธ์ระหว่าง: ความน่าจะเป็น, ความน่าจะเป็นตามเงื่อนไขและอัตราความล้มเหลว "ความน่าจะเป็นไม่ใช่ความน่าจะเป็นและไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไข" นอกจากนี้ยังกล่าวถึง"ความน่าจะเป็นคือความน่าจะเป็นแบบมีเงื่อนไขเฉพาะในการทำความเข้าใจความน่าจะเป็นแบบเบย์เช่นถ้าคุณคิดว่าเป็นตัวแปรสุ่ม"θθ\theta ฉันอ่านเกี่ยวกับมุมมองที่แตกต่างกันของการรักษาปัญหาการเรียนรู้ระหว่างผู้ใช้บ่อยและ Bayesian แหล่งอ้างอิงสำหรับการอนุมานแบบเบส์เรามีความสำคัญ , โอกาสและเราต้องการที่จะได้รับหลังโดยใช้ทฤษฎีบทแบบเบส์:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} ฉันไม่คุ้นเคยกับการอนุมานแบบเบย์ เหตุใดซึ่งเป็นการกระจายของข้อมูลที่สังเกตตามเงื่อนไขในพารามิเตอร์ของมันก็ถูกเรียกว่าเป็นไปได้หรือไม่? ในวิกิพีเดียมันบอกว่าบางครั้งมันก็เป็นลายลักษณ์อักษรtheta) สิ่งนี้หมายความว่า?P(X|θ)P(X|θ)P(X|\theta)L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta) มีความแตกต่างระหว่างคำจำกัดความของ Frequentistist และ Bayesian เกี่ยวกับความเป็นไปได้หรือไม่? ขอบคุณ แก้ไข: มีหลายวิธีในการตีความทฤษฎีบทของเบย์ - การตีความแบบเบย์และการตีความบ่อย (ดู: ทฤษฎีบทของเบย์ - วิกิพีเดีย …

6
ด้านหลังแตกต่างจากก่อนและมีโอกาสมาก
หากก่อนหน้านี้และโอกาสที่แตกต่างกันมากจากนั้นบางครั้งสถานการณ์ที่เกิดขึ้นที่หลังหลังจะไม่เหมือนกัน ดูตัวอย่างภาพนี้ซึ่งใช้การแจกแจงแบบปกติ แม้ว่านี่จะถูกต้องในเชิงคณิตศาสตร์ แต่ดูเหมือนว่าจะไม่สอดคล้องกับสัญชาตญาณของฉัน - ถ้าข้อมูลไม่ตรงกับความเชื่อหรือข้อมูลที่จัดขึ้นอย่างรุนแรงของฉัน ทั้งช่วงหรือบางทีการกระจาย bimodal รอบก่อนและโอกาส (ฉันไม่แน่ใจซึ่งทำให้รู้สึกตรรกะเพิ่มเติม) แน่นอนว่าฉันจะไม่คาดหวังว่าคนหลังแน่นหนาในช่วงที่ไม่ตรงกับความเชื่อหรือข้อมูลของฉัน ฉันเข้าใจว่าเมื่อมีการรวบรวมข้อมูลมากขึ้นผู้หลังจะย้ายไปสู่ความเป็นไปได้ แต่ในสถานการณ์เช่นนี้ดูเหมือนว่าจะตอบโต้ได้ง่าย คำถามของฉันคือ: ความเข้าใจของฉันเกี่ยวกับสถานการณ์นี้มีข้อบกพร่องอย่างไร (หรือมีข้อบกพร่อง) ด้านหลังเป็นฟังก์ชัน `ถูกต้อง 'สำหรับสถานการณ์นี้หรือไม่ และถ้าไม่ทำเช่นนั้น เพื่อประโยชน์ครบถ้วนก่อนที่จะได้รับเป็นและความน่าจะเป็น0.4)N ( μ = 6.1 , σ = 0.4 )ยังไม่มีข้อความ( μ = 1.5 , σ= 0.4 )ยังไม่มีข้อความ(μ=1.5,σ=0.4)\mathcal{N}(\mu=1.5, \sigma=0.4)ยังไม่มีข้อความ( μ = 6.1 , σ= 0.4 )ยังไม่มีข้อความ(μ=6.1,σ=0.4)\mathcal{N}(\mu=6.1, \sigma=0.4) แก้ไข: ดูคำตอบที่ได้รับฉันรู้สึกว่าฉันไม่ได้อธิบายสถานการณ์ได้ดีนัก ประเด็นของฉันคือการวิเคราะห์แบบเบย์ดูเหมือนจะให้ผลลัพธ์ที่ไม่เป็นไปตามสัญชาตญาณเนื่องจากข้อสมมติฐานในแบบจำลอง ความหวังของฉันคือการที่หลังผู้ใดจะ …

1
การแปลง (การทำให้เป็นปกติ) ค่าความน่าจะเป็นที่น้อยมากเป็นความน่าจะเป็น
ฉันกำลังเขียนอัลกอริทึมที่ได้รับแบบจำลองฉันคำนวณความน่าจะเป็นของรายการชุดข้อมูลจากนั้นจำเป็นต้องทำให้เป็นปกติ (เป็นความน่าจะเป็น) แต่ละโอกาส ดังนั้นบางอย่างเช่น [0.00043, 0.00004, 0.00321] อาจถูกแปลงเป็นอาจจะเป็น [0.2, 0.03, 0.77] ปัญหาของฉันคือความน่าจะเป็นของบันทึกที่ฉันกำลังทำงานอยู่มีขนาดค่อนข้างเล็ก (ตัวอย่างเช่นในพื้นที่บันทึกค่ามีค่าเช่น -269647.432, -231444.981 เป็นต้น) ในรหัส C ++ ของฉันเมื่อฉันพยายามเพิ่มพวกเขาสองคน (โดยการยกกำลังของพวกเขา) ฉันได้รับคำตอบของ "Inf" ฉันพยายามเพิ่มพวกเขาใน log-space (Summation / Subtraction of log)แต่ก็พบปัญหาเดียวกันอีกครั้ง ใครสามารถแบ่งปันความเห็นของผู้เชี่ยวชาญเกี่ยวกับเรื่องนี้?

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.