คำถามติดแท็ก expectation-maximization

อัลกอริธึมการปรับให้เหมาะสมมักใช้สำหรับการประเมินความเป็นไปได้สูงสุดในการมีข้อมูลที่ขาดหายไป

4
ทางเลือกที่รวดเร็วสำหรับอัลกอริทึม EM
มีทางเลือกอื่น ๆ สำหรับอัลกอริทึม EM สำหรับการเรียนรู้รูปแบบที่มีตัวแปรแฝง (โดยเฉพาะ pLSA) หรือไม่? ฉันโอเคกับการเสียสละความแม่นยำเพื่อความเร็ว

3
ประเมินขนาดของประชากรที่ถูกสุ่มตัวอย่างด้วยจำนวนการสังเกตซ้ำ
สมมติว่าฉันมีประชากร 50 ล้านสิ่งที่ไม่เหมือนใครและฉันนำตัวอย่าง 10 ล้านชิ้น (มาทดแทน) ... กราฟแรกที่ฉันแนบมาแสดงให้เห็นว่าฉันได้ทดลองสิ่ง "เดียวกัน" กี่ครั้งซึ่งค่อนข้างหายาก ประชากรใหญ่กว่าตัวอย่างของฉัน อย่างไรก็ตามหากประชากรของฉันมีเพียง 10 ล้านสิ่งและฉันใช้ตัวอย่าง 10 ล้านตัวเนื่องจากกราฟที่สองแสดงให้เห็นว่าฉันมักจะลองทำซ้ำอีกครั้ง คำถามของฉันคือ - จากตารางความถี่การสังเกตของฉัน (ข้อมูลในแผนภูมิแท่ง) เป็นไปได้หรือไม่ที่จะได้ประมาณขนาดประชากรดั้งเดิมเมื่อไม่ทราบ? และมันจะดีมากถ้าคุณสามารถหาตัวชี้ว่าจะทำยังไงในอาร์

4
แยกประชากรสองกลุ่มออกจากตัวอย่าง
ฉันพยายามแยกค่าสองกลุ่มออกจากชุดข้อมูลเดียว ฉันสามารถสมมติว่าหนึ่งในประชากรมีการกระจายตามปกติและมีขนาดอย่างน้อยครึ่งหนึ่งของตัวอย่าง ค่าของอันที่สองนั้นต่ำกว่าหรือสูงกว่าค่าจากอันแรก (ไม่ทราบการกระจาย) สิ่งที่ฉันพยายามทำคือค้นหาขีด จำกัด บนและล่างที่จะล้อมรอบประชากรที่กระจายตัวตามปกติจากอีกอัน สมมติฐานของฉันให้ฉันด้วยจุดเริ่มต้น: จุดทั้งหมดที่อยู่ในช่วง interquartile ของตัวอย่างนั้นมาจากประชากรที่กระจายตัวตามปกติ ฉันพยายามที่จะทดสอบหาผู้ผิดกฎหมายที่นำพวกเขาออกจากส่วนที่เหลือของกลุ่มตัวอย่างจนกว่าพวกเขาจะไม่เข้ากับ 3 st.dev ของประชากรที่กระจายตัวตามปกติ ซึ่งไม่เหมาะ แต่ดูเหมือนจะให้ผลลัพธ์ที่สมเหตุสมผล การสันนิษฐานของฉันเป็นไปตามสถิติหรือไม่ อะไรจะเป็นวิธีที่ดีกว่าที่จะไปเกี่ยวกับเรื่องนี้? ป.ล. โปรดแก้ไขแท็กใครบางคน

2
MLE หมายถึงเรารู้ PDF ของข้อมูลของเราเสมอหรือไม่และ EM หมายถึงเราไม่?
ฉันมีคำถามเชิงแนวคิดง่ายๆที่ฉันต้องการชี้แจงเกี่ยวกับ MLE (การประเมินความน่าจะเป็นสูงสุด) และสิ่งที่เชื่อมโยงกับ EM (การคาดหวังสูงสุด) ตามที่ฉันเข้าใจแล้วถ้ามีคนบอกว่า "เราใช้ MLE" หมายความว่าพวกเขามีรูปแบบที่ชัดเจนของ PDF ในข้อมูลของพวกเขาหรือไม่ สำหรับฉันดูเหมือนว่าคำตอบสำหรับเรื่องนี้คือใช่ อีกวิธีหนึ่งถ้ามีคนบอกว่า "MLE" เมื่อใดก็ตามก็มีความเป็นธรรมที่จะถามพวกเขาว่าพวกเขากำลังสมมติว่าเป็น PDF สิ่งนี้จะถูกต้องหรือไม่ สุดท้ายบน EM ความเข้าใจของฉันก็คือใน EM เราไม่รู้จริงหรือจำเป็นต้องรู้ PDF พื้นฐานของข้อมูลของเรา นี่คือความเข้าใจของฉัน ขอบคุณ.

2
การหาจำนวนของ gaussians ในส่วนผสม จำกัด กับทฤษฎีบทของ Wilks?
สมมติว่าผมมีชุดของอิสระสังเกต univariate กันกระจายและสองสมมติฐานเกี่ยวกับวิธีการถูกสร้าง:xxxxxx H0H0H_0 : มาจากการแจกแจงแบบเกาส์เดียวโดยไม่ทราบค่าเฉลี่ยและความแปรปรวนxxx HAHAH_A : มาจากการผสมผสานของสอง Gaussians ที่ไม่ทราบค่าเฉลี่ยความแปรปรวนและสัมประสิทธิ์การผสมxxx หากฉันเข้าใจอย่างถูกต้องนี่เป็นแบบจำลองที่ซ้อนกันเนื่องจากแบบจำลองที่หมายถึงสามารถอธิบายได้ในแง่ของหากคุณ จำกัด พารามิเตอร์ของ Gaussians ทั้งสองให้เหมือนกันหรือ จำกัด สัมประสิทธิ์การผสมให้เป็นศูนย์สำหรับหนึ่งในสอง Gaussians H0H0H_0HAHAH_A ดังนั้นดูเหมือนว่าคุณจะสามารถใช้อัลกอริทึม EM เพื่อประเมินพารามิเตอร์ของแล้วใช้ทฤษฎีบทของวิลก์สเพื่อพิจารณาว่าโอกาสของข้อมูลภายใต้นั้นสูงกว่าของอย่างมีนัยสำคัญไม่ มีความเชื่อเล็กน้อยในข้อสันนิษฐานว่าอัลกอริทึม EM จะมาบรรจบกันกับความเป็นไปได้สูงสุดที่นี่ แต่เป็นสิ่งที่ฉันยินดีทำHAHAH_AHAHAH_AH0H0H_0 ฉันลองสิ่งนี้ในการจำลอง monte carlo โดยสมมติว่ามีอิสระมากกว่า 3 องศา H 0 (ค่าเฉลี่ยและความแปรปรวนสำหรับ Gaussian ที่สองและพารามิเตอร์การผสม) เมื่อฉันจำลองข้อมูลจาก H 0ฉันได้รับการแจกแจงแบบ P-value ที่ไม่สม่ำเสมอและได้รับการเสริมคุณค่าสำหรับค่า P ขนาดเล็ก (หาก EM ไม่ได้มาบรรจบกันกับความเป็นไปได้สูงสุดที่แท้จริงจะมีสิ่งตรงกันข้ามเกิดขึ้นแน่นอน) เกิดอะไรขึ้นกับการประยุกต์ใช้ทฤษฎีบทของวิลก์สที่สร้างอคตินี้HAHAH_AH0H0H_0H0H0H_0

2
ความสำคัญของความน่าจะเป็นเริ่มต้นการเปลี่ยนแปลงในโมเดลมาร์คอฟที่ซ่อนอยู่
ประโยชน์ของการให้ค่าเริ่มต้นกับการเปลี่ยนแปลงความน่าจะเป็นใน Hidden Markov Model มีอะไรบ้าง ในที่สุดระบบจะเรียนรู้พวกเขาดังนั้นอะไรคือจุดที่ให้คุณค่าอื่น ๆ นอกเหนือจากการสุ่ม? อัลกอริทึมพื้นฐานสร้างความแตกต่างเช่น Baum – Welch หรือไม่? ถ้าฉันรู้ว่าความน่าจะเป็นในการเปลี่ยนแปลงในตอนเริ่มต้นนั้นถูกต้องมากและจุดประสงค์หลักของฉันคือการทำนายความน่าจะเป็นของผลลัพธ์จากสถานะที่ซ่อนอยู่ไปจนถึงการสังเกตคุณจะแนะนำฉันอย่างไร

1
คุณใช้อัลกอริธึม EM ในการคำนวณ MLEs สำหรับสูตรตัวแปรแฝงของโมเดลปัวซองที่มีค่าศูนย์ได้อย่างไร
แบบจำลองการถดถอยปัวซงแบบ zero zero ถูกกำหนดไว้สำหรับตัวอย่างโดย และจะถือว่าพารามิเตอร์และไปY i = { 0 ด้วยความน่าจะเป็นp i + ( 1 - p i ) e - λ i k ด้วยความน่าจะเป็น( 1 - p i ) e - λ ฉัน λ k i / k ! λ = ( λ 1 , … , λ n ) …

3
โมเดล Markov ที่ซ่อนอยู่และอัลกอริทึมการเพิ่มความคาดหวังสูงสุด
ใครสามารถอธิบายได้ว่าแบบจำลองของมาร์คอฟที่ซ่อนอยู่เกี่ยวข้องกับการเพิ่มความคาดหวังสูงสุดได้อย่างไร ฉันได้ผ่านการเชื่อมโยงมากมาย แต่ไม่สามารถมาพร้อมกับมุมมองที่ชัดเจน ขอบคุณ!

1
วิธีทำให้เมทริกซ์เป็นบวกแน่นอน?
ฉันกำลังพยายามใช้อัลกอริทึม EM สำหรับรูปแบบการวิเคราะห์ปัจจัยต่อไปนี้ WJ= μ + B aJ+ eJสำหรับj = 1 , … , nWj=μ+Baj+ejforj=1,…,nW_j = \mu+B a_j+e_j \quad\text{for}\quad j=1,\ldots,n ที่คือ P-มิติเวกเตอร์สุ่มเจเป็นเวกเตอร์ Q-มิติของตัวแปรแฝงและBเป็นเมทริกซ์ pxq ของพารามิเตอร์WJWjW_jaJaja_jBBB จากข้อสมมติฐานอื่น ๆ ที่ใช้สำหรับแบบจำลองฉันรู้ว่าโดยที่Dคือเมทริกซ์ความแปรปรวนร่วมแปรปรวนของข้อผิดพลาดe j , D = diag ( σ 2 1 , σ 2 2 , ... , σ 2 p )Wj∼N(μ,BB′+D)Wj∼N(μ,BB′+D)W_j\sim N(\mu, BB'+D)DDDejeje_jDDDσ21σ12\sigma_1^2σ22σ22\sigma_2^2σ2pσp2\sigma_p^2 …

3
ความแตกต่างระหว่าง MLE และ Baum Welch บนอุปกรณ์ HMM
ในคำถามยอดนิยมนี้คำตอบที่ขึ้นราคาสูงทำให้ MLE และ Baum Welch แยกออกจากกันในการปรับ HMM สำหรับปัญหาการฝึกอบรมเราสามารถใช้อัลกอริทึม 3 ข้อต่อไปนี้: MLE (การประเมินความเป็นไปได้สูงสุด) การฝึกอบรม Viterbi (อย่าสับสนกับการถอดรหัส Viterbi) Baum Welch = อัลกอริทึมไปข้างหน้าย้อนหลัง แต่ในWikipediaมันบอกว่า อัลกอริทึม Baum – Welch ใช้อัลกอริทึม EM ที่รู้จักกันดีในการค้นหาการประมาณค่าความน่าจะเป็นสูงสุดของพารามิเตอร์ ดังนั้นความสัมพันธ์ระหว่างอัลกอรึทึม MLE กับ Baum – Welch คืออะไร? ความพยายามของฉัน: วัตถุประสงค์สำหรับอัลกอรึทึม Baum – Welch คือความเป็นไปได้สูงสุด แต่ใช้อัลกอริธึมพิเศษ (EM) เพื่อแก้ไขการปรับให้เหมาะสม เรายังสามารถเพิ่มความเป็นไปได้สูงสุดโดยใช้วิธีการอื่น ๆ เช่นการไล่ระดับสีที่เหมาะสม นี่คือเหตุผลที่คำตอบแยกสองอัลกอริทึมออก ฉันถูกและทุกคนสามารถช่วยฉันในการชี้แจง?

2
ช่วยในการเพิ่มความคาดหวังจากกระดาษ: วิธีการรวมการกระจายก่อนหน้า?
คำถามนี้มีพื้นฐานอยู่บนกระดาษหัวข้อ: การสร้างภาพใหม่ในการถ่ายภาพด้วยแสงแบบกระจายโดยใช้แบบจำลองการกระจายการแผ่รังสีแบบคู่ - การกระจาย ลิ้งค์ดาวน์โหลด ผู้เขียนใช้อัลกอริทึม EM ด้วย ล.1l1l_1sparsity normalization ของ vectorไม่รู้จักเพื่อประมาณค่าพิกเซลของรูปภาพ รูปแบบที่ได้รับจากμμ\mu Y= A μ + e(1)(1)y=Aμ+ey=A\mu + e \tag{1} การประมาณการจะได้รับใน Eq (8) เป็น μ^= หาเรื่องm a x lnp ( y| μ)+γLNp ( μ )(2)(2)μ^=arg⁡maxln⁡p(y|μ)+γln⁡p(μ)\hat{\mu} = \arg max {\ln p(y|\mu) + \gamma \ln p(\mu)} \tag{2} ในกรณีของฉันฉันได้ถือว่าเป็นตัวกรองความยาวและคือคูณเวกเตอร์ที่แสดงตัวกรอง ดังนั้น,μμ\muLLLμμ\mathbf{\mu}L × 1L×1L …

1
ข้อ จำกัด MCMC / EM MCMC มากกว่า EM?
ขณะนี้ฉันเรียนรู้โมเดลเบย์แบบลำดับชั้นโดยใช้ JAGS จาก R และ pymc โดยใช้ Python ( "วิธีเบส์สำหรับแฮกเกอร์" ) ฉันสามารถรับปรีชาจากโพสต์นี้ : "คุณจะจบลงด้วยจำนวนของตัวเลขที่มีลักษณะ" ราวกับว่า "คุณมีการจัดการอย่างใดที่จะนำตัวอย่างอิสระจากการกระจายที่ซับซ้อนที่คุณต้องการรู้" มันเป็นสิ่งที่ฉันสามารถให้ความน่าจะเป็นแบบมีเงื่อนไขจากนั้นฉันสามารถสร้างกระบวนการที่ไม่มีหน่วยความจำขึ้นอยู่กับความน่าจะเป็นแบบมีเงื่อนไข เมื่อฉันสร้างกระบวนการนานพอแล้วความน่าจะเป็นร่วมจะมาบรรจบกันและจากนั้นฉันก็สามารถนำจำนวนตัวเลขมารวมกันที่ส่วนท้ายของลำดับที่สร้างขึ้น มันเหมือนกับว่าฉันเอาตัวอย่างอิสระจากการกระจายข้อต่อที่ซับซ้อน ตัวอย่างเช่นฉันสามารถสร้างฮิสโตแกรมและสามารถประมาณฟังก์ชันการแจกแจง จากนั้นปัญหาของฉันคือฉันต้องพิสูจน์ว่า MCMC มาบรรจบกันสำหรับรุ่นใดรุ่นหนึ่งหรือไม่ ฉันมีแรงจูงใจที่จะรู้สิ่งนี้เพราะก่อนหน้านี้ฉันได้เรียนรู้อัลกอริทึม EM สำหรับ GMM และ LDA (โมเดลกราฟิก) ถ้าฉันสามารถใช้อัลกอริทึม MCMC โดยไม่ต้องพิสูจน์ว่ามันมาบรรจบกันแล้วมันสามารถประหยัดเวลาได้มากกว่า EM เนื่องจากฉันจะต้องคำนวณฟังก์ชั่นโอกาสในการบันทึกที่คาดหวัง (จะต้องคำนวณความน่าจะเป็นหลัง) แล้วจึงเพิ่มโอกาสในการบันทึกที่คาดหวัง เห็นได้ชัดว่ามันยุ่งยากกว่า MCMC (ฉันแค่ต้องกำหนดความน่าจะเป็นแบบมีเงื่อนไข) ฉันยังสงสัยด้วยว่าฟังก์ชันความน่าจะเป็นและการกระจายก่อนหน้านั้นเป็นแบบคอนจูเกตหรือไม่ มันหมายความว่า MCMC ต้องมาบรรจบกัน? ฉันสงสัยเกี่ยวกับข้อ จำกัด ของ MCMC และ EM

1
อัลกอริทึม EM ประมาณการพารามิเตอร์ในแบบจำลองผสมแบบเกาส์หรือไม่
ฉันกำลังศึกษารูปแบบส่วนผสมของเกาส์เซียนและเกิดขึ้นกับคำถามนี้ด้วยตัวเอง สมมติว่าข้อมูลพื้นฐานถูกสร้างขึ้นจากการผสมผสานของการแจกแจงแบบเกาส์กันและแต่ละคนมีค่าเฉลี่ยของเวกเตอร์โดยที่และแต่ละคนมีค่าเดียวกัน เมทริกซ์ความแปรปรวนและถือว่านี้เป็นเมทริกซ์แนวทแยง และสมมติว่าอัตราส่วนการผสมคือกล่าวคือแต่ละกลุ่มมีน้ำหนักเท่ากันKKKμk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p1≤k≤K1≤k≤K1\leq k\leq KΣΣ\SigmaΣΣ\Sigma1/K1/K1/K ดังนั้นในตัวอย่างนี้เหมาะที่งานเพียงอย่างเดียวคือการประมาณพาหะเฉลี่ยที่และเมทริกซ์ร่วมแปรปรวน\KKKμk∈Rpμk∈Rp\mu_k\in\mathbb{R}^p1≤k≤K1≤k≤K1\leq k\leq KΣΣ\Sigma คำถามของฉันคือ: ถ้าเราใช้อัลกอริทึม EM เราจะสามารถประมาณและอย่างต่อเนื่องเช่นเมื่อขนาดตัวอย่างตัวประมาณที่อัลกอริทึม EM จะสร้างให้ได้ค่าที่แท้จริงของและ ?μkμk\mu_kΣΣ\Sigman→∞n→∞n\rightarrow\inftyμkμk\mu_kΣΣ\Sigma

1
การบรรจบกันของอัลกอริทึม EM ที่มีการกระจายตัวแบบผสมไบวาเรีย
ผมมีรูปแบบผสมซึ่งผมต้องการที่จะหาประมาณค่าความน่าจะเป็นสูงสุดของการได้รับชุดของข้อมูลและชุดของข้อมูลบางส่วนที่สังเกตZฉันได้ดำเนินการทั้ง E-ขั้นตอน (คำนวณความคาดหวังของให้และพารามิเตอร์ปัจจุบัน ) และขั้นตอนเอ็มเพื่อลดเชิงลบเข้าสู่ระบบได้รับโอกาสที่คาดว่าจะZxxxzzzzzzxxxθkθk\theta^kzzz ตามที่ฉันได้เข้าใจแล้วโอกาสสูงสุดที่เพิ่มขึ้นสำหรับการทำซ้ำทุกครั้งซึ่งหมายความว่าโอกาสในการลบเชิงลบจะต้องลดลงสำหรับการทำซ้ำทุกครั้งหรือไม่ อย่างไรก็ตามในขณะที่ฉันทำซ้ำอัลกอริทึมไม่ได้สร้างมูลค่าลดลงของความน่าจะเป็นบันทึกเชิงลบ แต่อาจลดลงและเพิ่มขึ้นได้ ตัวอย่างเช่นนี่คือค่าของความน่าจะเป็นบันทึกเชิงลบจนกระทั่งการลู่เข้า: ที่นี่ฉันเข้าใจผิดไหม? นอกจากนี้สำหรับข้อมูลจำลองเมื่อฉันดำเนินการความเป็นส่วนตัวสูงสุดสำหรับตัวแปรแฝงที่แท้จริง (ไม่มีการตรวจสอบ) ฉันมีความใกล้เคียงกับความสมบูรณ์แบบมากแสดงว่าไม่มีข้อผิดพลาดในการเขียนโปรแกรม สำหรับอัลกอริทึม EM นั้นมักจะรวมตัวกันเป็นโซลูชั่นย่อยที่ชัดเจนโดยเฉพาะอย่างยิ่งสำหรับชุดย่อยเฉพาะของพารามิเตอร์ (เช่นสัดส่วนของตัวแปรการจำแนกประเภท) เป็นที่ทราบกันดีว่าอัลกอริทึมอาจมาบรรจบกันเพื่อท้องถิ่นน้อยหรือจุดหยุดนิ่งจะมีการแก้ปัญหาการค้นหาธรรมดาหรือเช่นเดียวกันเพื่อเพิ่มโอกาสในการหาขั้นต่ำทั่วโลก (หรือสูงสุด) สำหรับปัญหานี้โดยเฉพาะฉันเชื่อว่ามีการจำแนกประเภทมิสจำนวนมากเนื่องจากการผสมสองตัวแปรหนึ่งในสองการแจกแจงใช้ค่าที่มีความน่าจะเป็นที่หนึ่ง (มันคือการผสมผสานของอายุการใช้งานT=zT0+(1−z)∞T=zT0+(1−z)∞T=z T_0 + (1-z)\inftyโดยที่หมายถึงส่วนที่เป็นของการแจกแจงอย่างใดอย่างหนึ่ง ตัวบ่งชี้ถูกตรวจสอบแน่นอนในชุดข้อมูล zzzzzz ฉันเพิ่มตัวเลขที่สองสำหรับเมื่อฉันเริ่มต้นด้วยวิธีแก้ปัญหาเชิงทฤษฎี (ซึ่งควรใกล้เคียงที่สุด) อย่างไรก็ตามตามที่สามารถเห็นได้ถึงความน่าจะเป็นและพารามิเตอร์ที่เบี่ยงเบนจากการแก้ปัญหานี้ไปสู่สิ่งที่ด้อยกว่าอย่างชัดเจน แก้ไข: ข้อมูลทั้งหมดอยู่ในรูปแบบโดยที่เป็นเวลาที่สังเกตสำหรับหัวเรื่อง ,ระบุว่าเวลาเกี่ยวข้องกับเหตุการณ์จริงหรือไม่ หรือถ้ามันถูกเซ็นเซอร์อย่างถูกต้อง (1 หมายถึงเหตุการณ์และ 0 หมายถึงการเซ็นเซอร์ที่ถูกต้อง),คือเวลาตัดปลายของการสังเกต (อาจเป็น 0) ด้วยตัวบ่งชี้การตัดและในที่สุดเป็นตัวบ่งชี้ว่า bivariate มันเราแค่ต้องพิจารณา 0 และ 1)xi=(ti,δi,Li,τi,zi)xi=(ti,δi,Li,τi,zi)\mathbf{x_i}=(t_i,\delta_i,L_i,\tau_i,z_i)titit_iiiiδiδi\delta_iLiLiL_iτiτi\tau_iziziz_i สำหรับเรามีฟังก์ชั่นความหนาแน่นในทำนองเดียวกันก็มีความเกี่ยวข้องกับฟังก์ชันการกระจายหาง1) สำหรับเหตุการณ์ที่น่าสนใจจะไม่เกิดขึ้น แม้ว่าจะไม่มีที่เกี่ยวข้องกับการกระจายนี้เรากำหนดให้เป็นจึงและ 1 สิ่งนี้ยังให้การกระจายแบบเต็มต่อไปนี้:z=1z=1z=1fz(t)=f(t|z=1)fz(t)=f(t|z=1)f_z(t)=f(t|z=1)Sz(t)=S(t|z=1)Sz(t)=S(t|z=1)S_z(t)=S(t|z=1)z=0z=0z=0tttinfinf\inff(t|z=0)=0f(t|z=0)=0f(t|z=0)=0S(t|z=0)=1S(t|z=0)=1S(t|z=0)=1 …

1
ทำไมอัลกอริทึม EM จึงจำเป็นต้องทำซ้ำ?
สมมติว่าคุณมีประชากรที่มีหน่วยแต่ละคนมีตัวแปรสุ่มแลมบ์ดา) คุณสังเกตn = N-n_0ค่าสำหรับหน่วยใด ๆ ที่x_i> 0 เราต้องการการประมาณการของ\ แลมบ์ดาNNNXi∼Poisson(λ)Xi∼Poisson(λ)X_i \sim \text{Poisson}(\lambda)n=N−n0n=N−n0n = N-n_0Xi>0Xi>0X_i > 0λλ\lambda มีวิธีการสักครู่และวิธีหาโอกาสสูงสุดแบบมีเงื่อนไขในการรับคำตอบ แต่ฉันต้องการลองใช้อัลกอริทึม EM ฉันได้อัลกอริทึม EM เป็น Q(λ−1,λ)=λ(n+nexp(λ−1)−1)+log(λ)∑i=1nxi+K,Q(λ−1,λ)=λ(n+nexp(λ−1)−1)+log⁡(λ)∑i=1nxi+K, Q\left(\lambda_{-1}, \lambda\right) = \lambda \left(n + \frac{n}{\text{exp}(\lambda_{-1}) - 1}\right) + \log(\lambda)\sum_{i=1}^n{x_i} + K, ที่−1−1-1 subscript บ่งบอกถึงค่าจากการวนซ้ำก่อนหน้าของอัลกอริทึมและKKKเป็นค่าคงที่ด้วยความเคารพ พารามิเตอร์ (จริง ๆ แล้วฉันคิดว่าnnnในเศษส่วนในวงเล็บควรเป็นn+1n+1n+1แต่ดูเหมือนจะไม่ถูกต้องเป็นคำถามอีกครั้ง) เพื่อให้เป็นรูปธรรมนี้สมมติว่าn=10n=10n=10 , ∑xi=20∑xi=20\sum{x_i} = 2020 แน่นอนว่าNNNและn0n0n_0ไม่มีการตรวจสอบและλλ\lambdaจะถูกประเมิน เมื่อฉันทำซ้ำฟังก์ชันต่อไปนี้เสียบค่าสูงสุดของการทำซ้ำก่อนหน้านี้ฉันได้คำตอบที่ถูกต้อง (ตรวจสอบโดย …

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.