คำถามติดแท็ก hidden-markov-model

Hidden Markov Models ใช้สำหรับการสร้างแบบจำลองระบบที่ถือว่าเป็นกระบวนการ Markov ที่มีสถานะที่ซ่อนอยู่ (เช่นไม่สามารถสังเกตได้)

1
คำจำกัดความของระบบ Bayesian แบบไดนามิกและความสัมพันธ์กับ HMM?
จากวิกิพีเดีย Dynamic Bayesian Network (DBN) เป็นเครือข่ายแบบเบย์ซึ่งเชื่อมโยงตัวแปรซึ่งกันและกันผ่านขั้นตอนเวลาที่อยู่ติดกัน นี้มักจะเรียกว่าสอง timeslice BN เพราะมันบอกว่าที่จุดใด ๆ ในเวลา T, ค่าของตัวแปรที่สามารถคำนวณได้จาก regressors ภายในและค่าก่อนทันที (เวลา T-1) DBN นั้นเป็นเรื่องปกติในหุ่นยนต์และได้แสดงศักยภาพสำหรับแอพพลิเคชั่นการขุดข้อมูลที่หลากหลาย ตัวอย่างเช่นพวกมันถูกใช้ในการรู้จำเสียง, ลำดับโปรตีนและชีวสารสนเทศศาสตร์ DBN ได้แสดงให้เห็นถึงการผลิตโซลูชั่นที่เทียบเท่ากับรุ่น Hidden Markov และตัวกรองคาลมาน ฉันสงสัยว่า "ค่าก่อนหน้าทันที (เวลา T-1)" หมายความว่าดัชนีเวลาใน DBN ไม่ต่อเนื่องหรือไม่ "ณ จุดใดก็ได้ในเวลา T ค่าของตัวแปรสามารถคำนวณได้จาก regressors ภายในและค่าก่อนหน้าทันที (เวลา T-1)" หมายความว่า DBN เป็นกระบวนการมาร์คอฟแบบไม่ต่อเนื่องหรือไม่? หากฉันเข้าใจอย่างถูกต้อง HMM ก็เป็นกระบวนการมาร์คอฟแบบแยกเวลาเช่นกันหากไม่สนใจเอาต์พุตจากสถานะในเวลาเดียวกัน ดังนั้นฉันสงสัยว่า HMM …

2
ความสำคัญของความน่าจะเป็นเริ่มต้นการเปลี่ยนแปลงในโมเดลมาร์คอฟที่ซ่อนอยู่
ประโยชน์ของการให้ค่าเริ่มต้นกับการเปลี่ยนแปลงความน่าจะเป็นใน Hidden Markov Model มีอะไรบ้าง ในที่สุดระบบจะเรียนรู้พวกเขาดังนั้นอะไรคือจุดที่ให้คุณค่าอื่น ๆ นอกเหนือจากการสุ่ม? อัลกอริทึมพื้นฐานสร้างความแตกต่างเช่น Baum – Welch หรือไม่? ถ้าฉันรู้ว่าความน่าจะเป็นในการเปลี่ยนแปลงในตอนเริ่มต้นนั้นถูกต้องมากและจุดประสงค์หลักของฉันคือการทำนายความน่าจะเป็นของผลลัพธ์จากสถานะที่ซ่อนอยู่ไปจนถึงการสังเกตคุณจะแนะนำฉันอย่างไร

3
Markov chains เทียบกับ HMM
ลูกโซ่มาร์คอฟมีเหตุผลสำหรับฉันฉันสามารถใช้มันเพื่อจำลองการเปลี่ยนแปลงสถานะความน่าจะเป็นในปัญหาชีวิตจริง จากนั้น HMM ก็มาถึง HMM ได้รับการกล่าวถึงว่าเหมาะสมกับโมเดลปัญหามากกว่า MCs อย่างไรก็ตามปัญหาที่คนพูดถึงค่อนข้างซับซ้อนที่จะเข้าใจเช่นการพูด ดังนั้นคำถามของฉันคือคุณสามารถอธิบายปัญหา "จริงและเรียบง่าย" สำหรับ HMM ใดที่เหมาะสมกว่า MC และอธิบายว่าทำไม ขอบคุณ

3
โมเดล Markov ที่ซ่อนอยู่และอัลกอริทึมการเพิ่มความคาดหวังสูงสุด
ใครสามารถอธิบายได้ว่าแบบจำลองของมาร์คอฟที่ซ่อนอยู่เกี่ยวข้องกับการเพิ่มความคาดหวังสูงสุดได้อย่างไร ฉันได้ผ่านการเชื่อมโยงมากมาย แต่ไม่สามารถมาพร้อมกับมุมมองที่ชัดเจน ขอบคุณ!

1
มีแนวคิดของข้อมูล“ เพียงพอ” สำหรับการฝึกอบรมแบบจำลองทางสถิติหรือไม่?
ฉันทำงานเกี่ยวกับการสร้างแบบจำลองทางสถิติค่อนข้างมากเช่น Hidden Markov Models และ Gaussian Mixture Models ฉันเห็นว่าแบบจำลองการฝึกอบรมที่ดีในแต่ละกรณีเหล่านี้จำเป็นต้องใช้ข้อมูลจำนวนมาก (> 20,000 ประโยคสำหรับ HMMs) ที่นำมาจากสภาพแวดล้อมที่คล้ายคลึงกันเป็นการใช้งานครั้งสุดท้าย คำถามของฉันคือ: มีแนวคิดของข้อมูลการฝึกอบรมที่ "เพียงพอ" ในวรรณกรรมหรือไม่ ข้อมูลการฝึกอบรม "ดีพอ" เท่าใด ฉันจะคำนวณจำนวนประโยคที่จำเป็นสำหรับโมเดล "ดี" (ที่ให้ความแม่นยำในการรู้จำที่ดี (> 80%)) เพื่อฝึกอบรมได้อย่างไร ฉันจะรู้ได้อย่างไรว่าแบบจำลองได้รับการฝึกฝนอย่างเหมาะสมหรือไม่ สัมประสิทธิ์ในแบบจำลองจะเริ่มแสดงความผันผวนแบบสุ่มหรือไม่? ถ้าเป็นเช่นนั้นฉันจะแยกความผันผวนแบบสุ่มและการเปลี่ยนแปลงจริงเนื่องจากการอัปเดตโมเดลได้อย่างไร โปรดอ่านคำถามนี้ซ้ำในกรณีที่ต้องการแท็กเพิ่มเติม

3
ความแตกต่างระหว่าง MLE และ Baum Welch บนอุปกรณ์ HMM
ในคำถามยอดนิยมนี้คำตอบที่ขึ้นราคาสูงทำให้ MLE และ Baum Welch แยกออกจากกันในการปรับ HMM สำหรับปัญหาการฝึกอบรมเราสามารถใช้อัลกอริทึม 3 ข้อต่อไปนี้: MLE (การประเมินความเป็นไปได้สูงสุด) การฝึกอบรม Viterbi (อย่าสับสนกับการถอดรหัส Viterbi) Baum Welch = อัลกอริทึมไปข้างหน้าย้อนหลัง แต่ในWikipediaมันบอกว่า อัลกอริทึม Baum – Welch ใช้อัลกอริทึม EM ที่รู้จักกันดีในการค้นหาการประมาณค่าความน่าจะเป็นสูงสุดของพารามิเตอร์ ดังนั้นความสัมพันธ์ระหว่างอัลกอรึทึม MLE กับ Baum – Welch คืออะไร? ความพยายามของฉัน: วัตถุประสงค์สำหรับอัลกอรึทึม Baum – Welch คือความเป็นไปได้สูงสุด แต่ใช้อัลกอริธึมพิเศษ (EM) เพื่อแก้ไขการปรับให้เหมาะสม เรายังสามารถเพิ่มความเป็นไปได้สูงสุดโดยใช้วิธีการอื่น ๆ เช่นการไล่ระดับสีที่เหมาะสม นี่คือเหตุผลที่คำตอบแยกสองอัลกอริทึมออก ฉันถูกและทุกคนสามารถช่วยฉันในการชี้แจง?

1
โมเดล Markov ที่ซ่อนอยู่สำหรับการทำนายเหตุการณ์
คำถาม : การตั้งค่าด้านล่างนี้ใช้งานได้ดีกับโมเดลซ่อนมาร์คอฟหรือไม่? ฉันมีชุดข้อมูลการ108,000สังเกต (ใช้เวลากว่า 100 วัน) และประมาณ2000เหตุการณ์ตลอดช่วงเวลาการสังเกตทั้งหมด ข้อมูลดูเหมือนว่ารูปด้านล่างที่ตัวแปรที่สังเกตสามารถใช้ค่าไม่ต่อเนื่อง 3 ค่าและคอลัมน์สีแดงเน้นเวลาเหตุการณ์เช่น 's:[ 1 , 2 , 3 ][1,2,3][1,2,3]เสื้อEเสื้อEt_E ดังที่แสดงด้วยสี่เหลี่ยมสีแดงในรูปฉันได้ตัด {ถึง } สำหรับแต่ละเหตุการณ์โดยปฏิบัติต่อสิ่งเหล่านี้อย่าง "หน้าต่างก่อนเหตุการณ์" ได้อย่างมีประสิทธิภาพเสื้อEเสื้อEt_Eเสื้อE- 5เสื้อE-5t_{E-5} การฝึกอบรม HMM:ฉันวางแผนที่จะฝึกอบรมโมเดล Markov ที่ซ่อนอยู่ (HMM) โดยอ้างอิงจาก "หน้าต่างก่อนเหตุการณ์ทั้งหมด" โดยใช้วิธีการสังเกตหลายฉากตามที่แนะนำในหน้า Pg 273 ของ Rabiner ของกระดาษ หวังว่านี่จะช่วยให้ฉันฝึก HMM ที่รวบรวมรูปแบบลำดับที่นำไปสู่เหตุการณ์ อืมทำนาย:แล้วฉันวางแผนที่จะใช้ HMM นี้เพื่อทำนาย ในวันที่ใหม่ที่จะเป็นเวกเตอร์หน้าต่างบานเลื่อนการปรับปรุงในเวลาจริงเพื่อให้มีการสังเกตระหว่างเวลาปัจจุบันและเป็นวันที่ไปl o g[ พี(Observations|HMM)]ล.โอก.[P(OขsอีRโวลต์aเสื้อผมโอns|HMM)]log[P(Observations|HMM)]ObservationsOขsอีRโวลต์aเสื้อผมโอnsObservationstเสื้อtt−5เสื้อ-5t-5 ฉันคาดว่าจะเห็นเพิ่มขึ้นสำหรับการที่มีลักษณะคล้ายกับ "หน้าต่างก่อนเหตุการณ์" …

2
พารามิเตอร์การบูตแบบกึ่งพารามิเตอร์และแบบไม่มีพารามิเตอร์สำหรับรุ่นผสม
ตัดต่อไปนี้จะนำมาจากบทความนี้ ฉันเป็นมือใหม่ในการบู๊ตสแตรปและพยายามที่จะใช้การบู๊ตสแปปปิ้งแบบกึ่งพารามิเตอร์แบบกึ่งพารามิเตอร์และแบบไม่มีพารามิเตอร์สำหรับแบบจำลองเชิงเส้นผสมกับR bootแพ็คเกจ รหัส R นี่คือRรหัสของฉัน: library(SASmixed) library(lme4) library(boot) fm1Cult <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=Cultivation) fixef(fm1Cult) boot.fn <- function(data, indices){ data <- data[indices, ] mod <- lmer(drywt ~ Inoc + Cult + (1|Block) + (1|Cult), data=data) fixef(mod) } set.seed(12345) Out <- boot(data=Cultivation, statistic=boot.fn, R=99) …
9 r  mixed-model  bootstrap  central-limit-theorem  stable-distribution  time-series  hypothesis-testing  markov-process  r  correlation  categorical-data  association-measure  meta-analysis  r  anova  confidence-interval  lm  r  bayesian  multilevel-analysis  logit  regression  logistic  least-squares  eda  regression  notation  distributions  random-variable  expected-value  distributions  markov-process  hidden-markov-model  r  variance  group-differences  microarray  r  descriptive-statistics  machine-learning  references  r  regression  r  categorical-data  random-forest  data-transformation  data-visualization  interactive-visualization  binomial  beta-distribution  time-series  forecasting  logistic  arima  beta-regression  r  time-series  seasonality  large-data  unevenly-spaced-time-series  correlation  statistical-significance  normalization  population  group-differences  demography 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.