คำถามติดแท็ก conditional-probability

ความน่าจะเป็นที่เหตุการณ์จะเกิดขึ้นเมื่อทราบว่ามีเหตุการณ์ B อื่นเกิดขึ้นหรือเกิดขึ้น มันเป็นเรื่องปกติโดย P (A | B)

14
คำถามสัมภาษณ์ของ Amazon ความน่าจะเป็นของการสัมภาษณ์ครั้งที่ 2
ฉันได้รับคำถามนี้ระหว่างการสัมภาษณ์กับ Amazon: 50% ของคนที่ได้รับการสัมภาษณ์ครั้งแรกจะได้รับการสัมภาษณ์ครั้งที่สอง 95% ของเพื่อนที่ได้รับการสัมภาษณ์ครั้งที่สองรู้สึกว่าพวกเขาได้รับการสัมภาษณ์ครั้งแรกที่ดี 75% ของเพื่อนของคุณที่ไม่ได้รับการสัมภาษณ์ครั้งที่สองรู้สึกว่าพวกเขามีการสัมภาษณ์ครั้งแรกที่ดี หากคุณรู้สึกว่าได้รับการสัมภาษณ์ครั้งแรกความน่าจะเป็นที่คุณจะได้รับการสัมภาษณ์ครั้งที่สองคือเท่าไร มีคนช่วยอธิบายวิธีแก้ปัญหานี้ได้ไหม ฉันมีปัญหาในการแยกคำปัญหาออกเป็นคณิตศาสตร์ (ตอนนี้การสัมภาษณ์นานแล้ว) ฉันเข้าใจว่าอาจไม่มีวิธีแก้ปัญหาตัวเลขจริง แต่คำอธิบายว่าคุณจะแก้ไขปัญหานี้ได้อย่างไร แก้ไข: ฉันได้รับการสัมภาษณ์ครั้งที่สอง หากใครอยากรู้อยากเห็นฉันได้อธิบายว่าเป็นการรวมกันของคำตอบด้านล่าง: ข้อมูลไม่เพียงพอเพื่อนที่ไม่ได้เป็นตัวแทนตัวอย่างและอื่น ๆ เพียงแค่พูดถึงความน่าจะเป็นบางอย่าง คำถามทำให้ฉันงงในตอนท้ายขอบคุณสำหรับคำตอบทั้งหมด

2
สืบทอดการแจกแจงแบบมีเงื่อนไขของการแจกแจงปกติหลายตัวแปร
เรามีเวกเตอร์ปกติหลายตัวแปรSigma) พิจารณาการแบ่งและลงใน Y∼N(μ,Σ)Y∼N(μ,Σ){\boldsymbol Y} \sim \mathcal{N}(\boldsymbol\mu, \Sigma)μμ\boldsymbol\muYY{\boldsymbol Y}μ=[μ1μ2]μ=[μ1μ2]\boldsymbol\mu = \begin{bmatrix} \boldsymbol\mu_1 \\ \boldsymbol\mu_2 \end{bmatrix} Y=[y1y2]Y=[y1y2]{\boldsymbol Y}=\begin{bmatrix}{\boldsymbol y}_1 \\ {\boldsymbol y}_2 \end{bmatrix} กับพาร์ติชันที่คล้ายกันของΣΣ\Sigmaเป็น [Σ11Σ21Σ12Σ22][Σ11Σ12Σ21Σ22] \begin{bmatrix} \Sigma_{11} & \Sigma_{12}\\ \Sigma_{21} & \Sigma_{22} \end{bmatrix} จากนั้น(y1|y2=a)(y1|y2=a)({\boldsymbol y}_1|{\boldsymbol y}_2={\boldsymbol a})การแจกแจงแบบมีเงื่อนไขของพาร์ติชั่นแรกที่ได้รับสองคือ N(μ¯¯¯¯,Σ¯¯¯¯)N(μ¯,Σ¯)\mathcal{N}(\overline{\boldsymbol\mu},\overline{\Sigma})มีค่าเฉลี่ย μ¯¯¯¯=μ1+Σ12Σ22−1(a−μ2)μ¯=μ1+Σ12Σ22−1(a−μ2) \overline{\boldsymbol\mu}=\boldsymbol\mu_1+\Sigma_{12}{\Sigma_{22}}^{-1}({\boldsymbol a}-\boldsymbol\mu_2) และเมทริกซ์ความแปรปรวนร่วม Σ¯¯¯¯=Σ11−Σ12Σ22−1Σ21Σ¯=Σ11−Σ12Σ22−1Σ21 \overline{\Sigma}=\Sigma_{11}-\Sigma_{12}{\Sigma_{22}}^{-1}\Sigma_{21} ที่จริงแล้วผลลัพธ์เหล่านี้มีให้ใน Wikipedia ด้วย แต่ฉันไม่รู้ว่าμ¯¯¯¯μ¯\overline{\boldsymbol\mu}และΣ¯¯¯¯Σ¯\overline{\Sigma}มาจากไหน ผลลัพธ์เหล่านี้มีความสำคัญเนื่องจากพวกเขาเป็นสูตรทางสถิติที่สำคัญสำหรับ deriving กรองคาลมาน ใครบ้างจะให้ขั้นตอนที่ได้มาของฉันμ¯¯¯¯μ¯\overline{\boldsymbol\mu}และΣ¯¯¯¯Σ¯\overline{\Sigma}ขอบคุณมาก!

3
ตัวอย่าง: การถดถอย LASSO โดยใช้ glmnet สำหรับผลลัพธ์ไบนารี
ฉันเริ่มตะลุยกับการใช้งานglmnetกับการถดถอยแบบ LASSOซึ่งผลลัพธ์ของความสนใจของฉันนั้นเป็นแบบขั้วคู่ ฉันได้สร้างกรอบข้อมูลจำลองขนาดเล็กด้านล่าง: age <- c(4, 8, 7, 12, 6, 9, 10, 14, 7) gender <- c(1, 0, 1, 1, 1, 0, 1, 0, 0) bmi_p <- c(0.86, 0.45, 0.99, 0.84, 0.85, 0.67, 0.91, 0.29, 0.88) m_edu <- c(0, 1, 1, 2, 2, 3, 2, 0, 1) p_edu <- c(0, …
77 r  self-study  lasso  regression  interpretation  anova  statistical-significance  survey  conditional-probability  independence  naive-bayes  graphical-model  r  time-series  forecasting  arima  r  forecasting  exponential-smoothing  bootstrap  outliers  r  regression  poisson-distribution  zero-inflation  genetic-algorithms  machine-learning  feature-selection  cart  categorical-data  interpretation  descriptive-statistics  variance  multivariate-analysis  covariance-matrix  r  data-visualization  generalized-linear-model  binomial  proportion  pca  matlab  svd  time-series  correlation  spss  arima  chi-squared  curve-fitting  text-mining  zipf  probability  categorical-data  distance  group-differences  bhattacharyya  regression  variance  mean  data-visualization  variance  clustering  r  standard-error  association-measure  somers-d  normal-distribution  integral  numerical-integration  bayesian  clustering  python  pymc  nonparametric-bayes  machine-learning  svm  kernel-trick  hyperparameter  poisson-distribution  mean  continuous-data  univariate  missing-data  dag  python  likelihood  dirichlet-distribution  r  anova  hypothesis-testing  statistical-significance  p-value  rating  data-imputation  censoring  threshold 

4
จะสร้างตัวเลขสุ่มที่มีความสัมพันธ์กันอย่างไร (ให้หมายถึงผลต่างและระดับความสัมพันธ์)
ฉันขอโทษถ้ามันดูธรรมดาไปหน่อย แต่ฉันคิดว่าฉันแค่ต้องการยืนยันความเข้าใจที่นี่ ฉันเข้าใจว่าฉันต้องทำสิ่งนี้ในสองขั้นตอนและฉันก็เริ่มพยายามฝึกความสัมพันธ์ แต่ก็เริ่มดูเหมือนจะเกี่ยวข้องจริงๆ ฉันกำลังมองหาคำอธิบายที่กระชับ (นึกคิดด้วยคำแนะนำต่อการแก้ปัญหา pseudocode) ของวิธีที่ดีและรวดเร็วในการสร้างตัวเลขสุ่มที่สัมพันธ์กัน ด้วยความสูงและน้ำหนักของตัวแปรเทียมสองตัวที่มีความหมายและความแปรปรวนที่รู้จักกันและความสัมพันธ์ที่กำหนดฉันคิดว่าฉันพยายามเข้าใจว่าขั้นตอนที่สองนี้ควรเป็นอย่างไร height = gaussianPdf(height.mean, height.variance) weight = gaussianPdf(correlated_mean(height.mean, correlation_coefficient), correlated_variance(height.variance, correlation_coefficient)) ฉันจะคำนวณค่าเฉลี่ยและความแปรปรวนได้อย่างไร แต่ฉันต้องการยืนยันว่านี่เป็นปัญหาที่เกี่ยวข้องจริงๆที่นี่ ฉันจำเป็นต้องใช้วิธีจัดการกับเมทริกซ์หรือไม่? หรือฉันมีสิ่งอื่นที่ผิดปกติมากในแนวทางพื้นฐานของปัญหานี้

3
ลักษณะทั่วไปของกฎหมายว่าด้วยความคาดหวังซ้ำแล้วซ้ำอีก
ฉันเพิ่งเจอตัวตนนี้: E[ E( Y| X,Z)|X]=E[Y|X]E[E(Y|X,Z)|X]=E[Y|X]E \left[ E \left(Y|X,Z \right) |X \right] =E \left[Y | X \right] แน่นอนว่าฉันคุ้นเคยกับกฎฉบับนั้นง่ายกว่านั่นคือแต่ฉันไม่สามารถหาเหตุผลในการวางหลักเกณฑ์ทั่วไปได้E[E(Y|X)]=E(Y)E[E(Y|X)]=E(Y)E \left[ E \left(Y|X \right) \right]=E \left(Y\right) ฉันจะขอบคุณถ้ามีคนสามารถชี้ให้ฉันอ้างอิงที่ไม่ช่างเทคนิคสำหรับความจริงที่ว่าหรือดีกว่าถ้ามีคนสามารถวางหลักฐานง่าย ๆ สำหรับผลลัพธ์ที่สำคัญนี้

8
ความเป็นไปได้ที่บุคคลนี้เป็นเพศหญิงคืออะไร
มีคนอยู่ด้านหลังม่าน - ฉันไม่รู้ว่าคนนั้นเป็นผู้หญิงหรือผู้ชาย ฉันรู้ว่าคนที่มีผมยาวและ 90% ของคนที่มีผมยาวเป็นผู้หญิง ฉันรู้ว่าบุคคลนั้นมีกรุ๊ปเลือด AX3 ที่หายากและ 80% ของคนทั้งหมดที่มีกรุ๊ปเลือดนี้เป็นผู้หญิง ความน่าจะเป็นที่บุคคลนั้นเป็นผู้หญิงคืออะไร หมายเหตุ: สูตรดั้งเดิมนี้ได้ขยายออกไปพร้อมกับสมมติฐานสองข้อเพิ่มเติม: 1. กรุ๊ปเลือดและความยาวผมมีความเป็นอิสระ 2. อัตราส่วนเพศชาย: หญิงในประชากรส่วนใหญ่คือ 50:50 (สถานการณ์ที่เฉพาะเจาะจงที่นี่ไม่เกี่ยวข้อง - แต่ฉันมีโครงการเร่งด่วนที่ต้องการให้ฉันทราบวิธีการที่ถูกต้องในการตอบคำถามนี้ความรู้สึกของฉันคือว่ามันเป็นคำถามของความน่าจะเป็นแบบง่าย กว่าสิ่งที่มีคำตอบที่ถกเถียงกันหลายอย่างตามทฤษฎีทางสถิติที่แตกต่างกัน)

13
สัญชาตญาณของสูตรความน่าจะเป็นแบบมีเงื่อนไขคืออะไร
สูตรสำหรับความน่าจะเป็นแบบมีเงื่อนไขของเกิดขึ้นเนื่องจากเกิดขึ้นคือ:AA\text{A}BB\text{B}P(A | B)=P(A∩B)P(B).P(A | B)=P(A∩B)P(B). P\left(\text{A}~\middle|~\text{B}\right)=\frac{P\left(\text{A} \cap \text{B}\right)}{P\left(\text{B}\right)}. ตำราเรียนของฉันอธิบายถึงสัญชาตญาณที่อยู่เบื้องหลังสิ่งนี้ในแง่ของแผนภาพเวนน์ ระบุว่าได้เกิดขึ้นเพียงวิธีเดียวสำหรับที่จะเกิดขึ้นสำหรับเหตุการณ์ที่จะตกอยู่ในจุดตัดของและ{B}A A BBB\text{B}AA\text{A}AA\text{A}BB\text{B} ในกรณีนั้นความน่าจะเป็นของจะเท่ากับความน่าจะเป็นของทางแยกเนื่องจาก นั่นเป็นวิธีเดียวที่เหตุการณ์จะเกิดขึ้น? ฉันพลาดอะไรไป A BP(A|B)P(A|B)P\left(\text{A} \middle| \text{B}\right)AA\text{A}BB\text{B}

3
R: การสุ่มฟอเรสต์การโยน NaN / Inf ในข้อผิดพลาด“ การเรียกฟังก์ชันต่างประเทศ” แม้จะไม่มีชุดข้อมูลของ NaN [ปิด]
ฉันใช้คาเร็ตเพื่อรันฟอเรสต์แบบสุ่มที่ผ่านการตรวจสอบความถูกต้องข้ามชุดข้อมูล ตัวแปร Y เป็นปัจจัย ไม่มีชุดข้อมูลของ NaN, Inf's หรือ NA ในชุดข้อมูลของฉัน อย่างไรก็ตามเมื่อใช้ป่าสุ่มฉันได้รับ Error in randomForest.default(m, y, ...) : NA/NaN/Inf in foreign function call (arg 1) In addition: There were 28 warnings (use warnings() to see them) Warning messages: 1: In data.matrix(x) : NAs introduced by coercion 2: In data.matrix(x) : NAs …

7
ลูกเต๋าสองลูกหมุน - หมายเลขเดียวกันตามลำดับ
ฉันกำลังเรียนสถิติอนุมานบน Coursera หนึ่งในการมอบหมายคำถามต่อไปนี้เกิดขึ้น | Suppose you rolled the fair die twice. What is the probability of rolling the same number two times in a row? 1: 2/6 2: 1/36 3: 0 4: 1/6 Selection: 2 | You're close...I can feel it! Try it again. | Since we don't care what …

5
ความเป็นไปได้ของ Wikipedia
ฉันมีคำถามง่ายๆเกี่ยวกับ "ความน่าจะเป็นตามเงื่อนไข" และ "โอกาส" (ฉันได้สำรวจคำถามนี้ที่นี่แล้วแต่ไม่มีประโยชน์) มันเริ่มต้นจากหน้า Wikipedia ตามความเป็นไปได้ พวกเขาพูดแบบนี้: ความน่าจะเป็นของชุดของค่าพารามิเตอร์, θθ\theta , ให้ผลลัพธ์xxx , เท่ากับความน่าจะเป็นของผลลัพธ์ที่สังเกตได้จากค่าพารามิเตอร์เหล่านั้น, นั่นคือ L(θ∣x)=P(x∣θ)L(θ∣x)=P(x∣θ)\mathcal{L}(\theta \mid x) = P(x \mid \theta) ที่ดี! ดังนั้นในภาษาอังกฤษฉันอ่านสิ่งนี้ว่า: "ความน่าจะเป็นของพารามิเตอร์ที่เท่ากับทีต้า, รับข้อมูล X = x, (ทางซ้ายมือ), เท่ากับความน่าจะเป็นของข้อมูล X ที่เท่ากับ x, เนื่องจากพารามิเตอร์นั้น เท่ากับทีต้า " ( ตัวหนาเป็นของฉันสำหรับการเน้น ) อย่างไรก็ตามไม่น้อยกว่า 3 บรรทัดในหน้าเดียวกันรายการ Wikipedia ก็จะกล่าวต่อไปว่า: ให้XXXเป็นตัวแปรสุ่มที่มีต่อเนื่องกระจาย pppขึ้นอยู่กับพารามิเตอร์θθθ\thetaจากนั้นฟังก์ชั่น L(θ∣x)=pθ(x)=Pθ(X=x),L(θ∣x)=pθ(x)=Pθ(X=x),\mathcal{L}(\theta \mid …

2
ความขัดแย้งของข้อมูล iid (อย่างน้อยสำหรับฉัน)
เท่าที่รวมของฉัน (และหายาก) ความรู้เกี่ยวกับใบอนุญาตสถิติผมเข้าใจว่าถ้าX1,X2,...,XnX1,X2,...,XnX_1, X_2,..., X_nเป็นตัวแปรสุ่มของ iid จากนั้นเมื่อคำเหล่านี้แสดงถึงความเป็นอิสระและการกระจายตัวที่เหมือนกัน ความกังวลของฉันที่นี่เป็นทรัพย์สินเดิมของตัวอย่าง iid ซึ่งอ่าน: p(Xn|Xi1,Xi2,...,Xik)=p(Xn),พี(Xn|Xผม1,Xผม2,...,Xผมk)=พี(Xn),p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}), สำหรับคอลเลกชันใด ๆ ที่แตกต่างกัน 's เซนต์&lt;nijiji_j1≤ij&lt;n1≤ij&lt;n1 \leq i_j < n อย่างไรก็ตามมีใครรู้ว่าการรวมกลุ่มตัวอย่างอิสระของการแจกแจงแบบเดียวกันให้ข้อมูลเกี่ยวกับโครงสร้างการกระจายและเป็นผลเกี่ยวกับในกรณีข้างต้นดังนั้นจึงไม่ควรเป็นกรณีที่: XnXnX_np(Xn|Xi1,Xi2,...,Xik)=p(Xn).p(Xn|Xi1,Xi2,...,Xik)=p(Xn).p(X_{n}|X_{i_1},X_{i_2},...,X_{i_k}) = p(X_{n}). ฉันรู้ว่าฉันตกเป็นเหยื่อของการเข้าใจผิด แต่ฉันไม่รู้ว่าทำไม โปรดช่วยฉันออกจากนี้

4
ปัญหา Monty Hall กับ Monty ที่ตกลงมาได้
มอนตี้มีความรู้ที่สมบูรณ์แบบว่าประตูมีแพะอยู่ข้างหลัง (หรือว่างเปล่า) ข้อเท็จจริงนี้ช่วยให้ผู้เล่นเพิ่มอัตราความสำเร็จเป็นสองเท่าเมื่อเวลาผ่านไปโดยสลับ“ เดา” ไปที่ประตูอื่น จะเป็นอย่างไรถ้าความรู้ของมอนตี้น้อยกว่าสมบูรณ์ เกิดอะไรขึ้นถ้าบางครั้งรางวัลอย่างแท้จริงอยู่ในประตูเดียวกับแพะ? แต่คุณไม่สามารถมองเห็นมันจนกว่าคุณจะเลือกและเปิดประตูของคุณ? คุณช่วยฉันในการทำความเข้าใจวิธีคำนวณ IF และเพิ่มขึ้นได้อย่างไร - ผู้เล่นสามารถปรับปรุงความสำเร็จของเขาได้เมื่ออัตราความแม่นยำของ Monty น้อยกว่า 100%? ตัวอย่างเช่น: เกิดอะไรขึ้นถ้า Monty ผิด - โดยเฉลี่ย 50% ของเวลา? ผู้เล่นยังคงได้ประโยชน์จากการเปลี่ยน Guess / Door ของเขาหรือไม่? ฉันคิดว่าถ้ามอนตี้มีโอกาสน้อยกว่า 33.3% ที่จะแก้ไขว่ารางวัลไม่ได้อยู่หลังประตูตัวเลือกที่ดีที่สุดของผู้เล่นคือการไม่เปลี่ยนทางเลือกของเขา คุณช่วยบอกวิธีคำนวณผลประโยชน์ที่อาจเกิดขึ้นจากการสลับโดยการแทรกความน่าจะเป็นต่าง ๆ ของ Monty ที่ถูกต้องเกี่ยวกับรางวัลที่ไม่ได้อยู่หลังประตูหรือไม่? ฉันไม่มีอะไรนอกเหนือจากคณิตศาสตร์ของโรงเรียนมัธยมและอายุ 69 ปีดังนั้นโปรดอ่อนโยน ขอบคุณสำหรับข้อมูลเชิงลึกและสูตรที่มีให้ ดูเหมือนว่าหาก "Fallible Monty" มีความถูกต้อง 66% เท่านั้นในการทำนายการไม่มีรางวัล / รถยนต์ว่ามีประโยชน์เป็นศูนย์ที่จะเปลี่ยนจากทางเลือกเดิมของประตู .... …

4
ทุกคนสามารถอธิบายคำพ้องกันในรูปแบบที่ง่ายที่สุดได้ไหม?
ฉันพยายามทำความเข้าใจความคิดของนักบวชในสถิติ Bayesian มาระยะหนึ่งแล้ว แต่ฉันก็ไม่เข้าใจ ทุกคนสามารถอธิบายแนวคิดดังกล่าวด้วยคำศัพท์ที่ง่ายที่สุดที่เป็นไปได้หรืออาจใช้ตัวอย่าง "เสียนมาก่อน" เป็นตัวอย่าง?

3
มีความแตกต่างระหว่างผู้ถี่ถ้วนและเบย์ในคำจำกัดความของความน่าจะเป็นหรือไม่?
บางแหล่งกล่าวว่าฟังก์ชันความน่าจะเป็นไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไขบางคนบอกว่าเป็น นี่ทำให้ฉันสับสนมาก จากแหล่งข้อมูลส่วนใหญ่ที่ฉันเคยเห็นความน่าจะเป็นของการกระจายด้วยพารามิเตอร์ควรเป็นผลคูณของฟังก์ชันความน่าจะเป็นที่ได้รับจากตัวอย่างของ :θθ\thetannnxixix_i L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(θ)=L(x1,x2,...,xn;θ)=∏i=1np(xi;θ)L(\theta) = L(x_1,x_2,...,x_n;\theta) = \prod_{i=1}^n p(x_i;\theta) ตัวอย่างเช่นใน Logistic Regression เราใช้อัลกอริธึมการปรับให้เหมาะสมเพื่อเพิ่มฟังก์ชั่นความน่าจะเป็นสูงสุด (การประมาณความน่าจะเป็นสูงสุด) เพื่อให้ได้พารามิเตอร์ที่ดีที่สุด จากตัวอย่างการฝึกอบรมซึ่งเราคิดว่าเป็นอิสระจากกันเราต้องการเพิ่มผลลัพธ์ของความน่าจะเป็นสูงสุด (หรือฟังก์ชั่นมวลความน่าจะเป็นร่วม) ดูเหมือนว่าฉันจะค่อนข้างชัดเจนnnn ตามความสัมพันธ์ระหว่าง: ความน่าจะเป็น, ความน่าจะเป็นตามเงื่อนไขและอัตราความล้มเหลว "ความน่าจะเป็นไม่ใช่ความน่าจะเป็นและไม่ใช่ความน่าจะเป็นแบบมีเงื่อนไข" นอกจากนี้ยังกล่าวถึง"ความน่าจะเป็นคือความน่าจะเป็นแบบมีเงื่อนไขเฉพาะในการทำความเข้าใจความน่าจะเป็นแบบเบย์เช่นถ้าคุณคิดว่าเป็นตัวแปรสุ่ม"θθ\theta ฉันอ่านเกี่ยวกับมุมมองที่แตกต่างกันของการรักษาปัญหาการเรียนรู้ระหว่างผู้ใช้บ่อยและ Bayesian แหล่งอ้างอิงสำหรับการอนุมานแบบเบส์เรามีความสำคัญ , โอกาสและเราต้องการที่จะได้รับหลังโดยใช้ทฤษฎีบทแบบเบส์:P(θ)P(θ)P(\theta)P(X|θ)P(X|θ)P(X|\theta)P(θ|X)P(θ|X)P(\theta|X) P(θ|X)=P(X|θ)×P(θ)P(X)P(θ|X)=P(X|θ)×P(θ)P(X)P(\theta|X)=\dfrac{P(X|\theta) \times P(\theta)}{P(X)} ฉันไม่คุ้นเคยกับการอนุมานแบบเบย์ เหตุใดซึ่งเป็นการกระจายของข้อมูลที่สังเกตตามเงื่อนไขในพารามิเตอร์ของมันก็ถูกเรียกว่าเป็นไปได้หรือไม่? ในวิกิพีเดียมันบอกว่าบางครั้งมันก็เป็นลายลักษณ์อักษรtheta) สิ่งนี้หมายความว่า?P(X|θ)P(X|θ)P(X|\theta)L(θ|X)=p(X|θ)L(θ|X)=p(X|θ)L(\theta|X)=p(X|\theta) มีความแตกต่างระหว่างคำจำกัดความของ Frequentistist และ Bayesian เกี่ยวกับความเป็นไปได้หรือไม่? ขอบคุณ แก้ไข: มีหลายวิธีในการตีความทฤษฎีบทของเบย์ - การตีความแบบเบย์และการตีความบ่อย (ดู: ทฤษฎีบทของเบย์ - วิกิพีเดีย …

2
คำจำกัดความของความน่าจะเป็นตามเงื่อนไขที่มีหลายเงื่อนไข
โดยเฉพาะบอกว่าฉันมีสองเหตุการณ์ A และ B และพารามิเตอร์กระจายบางθθ \theta และฉันต้องการที่จะมองไปที่P(A|B,θ)P(A|B,θ)P(A | B,\theta) ) ดังนั้นคำจำกัดความที่ง่ายที่สุดของความน่าจะเป็นแบบมีเงื่อนไขคือให้บางเหตุการณ์ A และ B แล้ว ) ดังนั้นหากมีเหตุการณ์หลายไปอยู่ในสภาพที่เหมือนฉันมีข้างต้นผมอาจกล่าวได้ว่าP(|B,θ) ? = P((A|θ)∩(B|θ))P(A|B)=P(A∩B)P(B)P(A|B)=P(A∩B)P(B)P(A|B) = \frac{P(A \cap B)}{P(B)} หรือฉันกำลังมองไปในทางที่ผิดอย่างสิ้นเชิง? ฉันมักจะออกมาในใจเมื่อฉันจัดการกับความน่าจะเป็นบางครั้งฉันไม่แน่ใจว่าทำไมP(A|B,θ)=?P((A|θ)∩(B|θ))P(B|θ)P(A|B,θ)=?P((A|θ)∩(B|θ))P(B|θ)P(A | B,\theta) \stackrel{?}{=} \frac{P((A | \theta)\cap(B | \theta))}{P(B|\theta)}

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.