คำถามติดแท็ก markov-process

กระบวนการสุ่มกับทรัพย์สินที่อนาคตเป็นอิสระจากเงื่อนไขที่กำหนดในปัจจุบัน

11
แหล่งข้อมูลสำหรับการเรียนรู้โซ่มาร์คอฟและโมเดลมาร์คอฟที่ซ่อนอยู่
ฉันกำลังมองหาแหล่งข้อมูล (แบบฝึกหัดตำราเรียนเว็บคาสต์ ฯลฯ ) เพื่อเรียนรู้เกี่ยวกับ Markov Chain และ HMM พื้นหลังของฉันเป็นนักชีววิทยาและปัจจุบันฉันมีส่วนร่วมในโครงการที่เกี่ยวข้องกับชีวสารสนเทศศาสตร์ นอกจากนี้พื้นหลังทางคณิตศาสตร์ที่จำเป็นต้องมีความเข้าใจเพียงพอของโมเดลของมาร์คอฟ & HMM คืออะไร ฉันได้ดูรอบ ๆ โดยใช้ Google แต่จนถึงตอนนี้ฉันยังไม่พบบทแนะนำเบื้องต้นที่ดี ฉันแน่ใจว่าคนที่นี่รู้ดีกว่า

3
พวกเรามีปัญหาเรื่อง“ สงสาร upvotes” หรือไม่?
ฉันรู้ว่านี่อาจฟังดูเหมือนว่าเป็นหัวข้อนอก แต่ได้ยินฉัน ที่ Stack Overflow และที่นี่เราได้รับคะแนนโหวตจากโพสต์ทั้งหมดนี้เก็บไว้ในรูปแบบตาราง เช่น: โพสต์ id ผู้มีสิทธิเลือกตั้ง ID ลงคะแนนประเภท datetime ------- -------- --------- -------- 10 1 2 2000-1-1 10:00:01 11 3 3 2000-1-1 10:00:01 10 5 2 2000-1-1 10:00:01 ... และต่อไป โหวตประเภท 2 คือ upvote, โหวตโหวต 3 คือ downvote คุณสามารถสอบถามรุ่นนี้ของข้อมูลนี้แบบไม่เปิดเผยชื่อได้ที่http://data.stackexchange.com มีการรับรู้ว่าหากโพสต์ถึงคะแนน -1 หรือต่ำกว่าก็มีแนวโน้มที่จะ upvoted นี่อาจเป็นเพียงการยืนยันความลำเอียงหรือมันอาจจะหยั่งรากในความเป็นจริง เราจะวิเคราะห์ข้อมูลนี้เพื่อยืนยันหรือปฏิเสธสมมติฐานนี้อย่างไร เราจะวัดผลกระทบของอคตินี้อย่างไร

3
อะไรคือความแตกต่างระหว่างโมเดลมาร์คอฟที่ซ่อนอยู่กับเครือข่ายประสาทเทียม
ฉันแค่ทำให้เท้าของฉันเปียกในสถิติดังนั้นฉันขอโทษถ้าคำถามนี้ไม่สมเหตุสมผล ฉันใช้โมเดลของมาร์คอฟเพื่อทำนายสถานะที่ซ่อนอยู่ (คาสิโนที่ไม่เป็นธรรมลูกเต๋าทอย ฯลฯ ) และเครือข่ายประสาทเทียมเพื่อศึกษาการคลิกของผู้ใช้ในเครื่องมือค้นหา ทั้งสองมีสถานะซ่อนเร้นที่เราพยายามคิดโดยใช้การสังเกต เพื่อความเข้าใจของฉันพวกเขาทั้งคู่ทำนายสถานะซ่อนเร้นดังนั้นฉันสงสัยว่าเมื่อไหร่จะใช้โมเดลมาร์คอฟผ่านเครือข่ายประสาท พวกเขามีวิธีการที่แตกต่างกันสำหรับปัญหาที่คล้ายกันหรือไม่ (ฉันสนใจที่จะเรียนรู้ แต่ฉันก็มีแรงจูงใจอีกอย่างฉันมีปัญหาที่ฉันพยายามแก้ไขโดยใช้โมเดลของมาร์คอฟที่ซ่อนอยู่ แต่มันทำให้ฉันเป็นบ้า

2
คำนวณ Transition Matrix (Markov) ใน R
มีวิธีใน R (ฟังก์ชันในตัว) ในการคำนวณเมทริกซ์การเปลี่ยนแปลงสำหรับ Markov Chain จากชุดการสังเกตหรือไม่? ตัวอย่างเช่นการใช้ชุดข้อมูลดังต่อไปนี้และคำนวณเมทริกซ์การเปลี่ยนแปลงคำสั่งแรก? dat<-data.frame(replicate(20,sample(c("A", "B", "C","D"), size = 100, replace=TRUE)))
29 r  markov-process 

5
ความแตกต่างระหว่างเครือข่ายแบบเบย์และกระบวนการมาร์คอฟหรือไม่?
ความแตกต่างระหว่างเครือข่ายแบบเบย์และกระบวนการมาร์คอฟคืออะไร? ฉันเชื่อว่าฉันเข้าใจหลักการของทั้งสอง แต่ตอนนี้เมื่อฉันต้องการเปรียบเทียบทั้งสองที่ฉันรู้สึกว่าหายไป พวกเขามีความหมายเหมือนกันกับฉัน แน่นอนพวกเขาไม่ใช่ ลิงค์ไปยังแหล่งข้อมูลอื่น ๆ ก็ชื่นชม

1
เมทริกซ์สุ่มที่มีข้อ จำกัด ด้านความยาวของแถวและคอลัมน์
ฉันต้องการสร้างเมทริกซ์ที่ไม่เป็นสแควร์แบบสุ่มด้วยแถวและคอลัมน์องค์ประกอบที่กระจายแบบสุ่มด้วยค่าเฉลี่ย = 0 และถูก จำกัด เช่นนั้นความยาว (บรรทัดฐาน L2) ของแต่ละแถวคือและความยาวของแต่ละคอลัมน์คือ{C}} ผลรวมของค่าสแควร์คือ 1 สำหรับแต่ละแถวและสำหรับแต่ละคอลัมน์RRRCCC111RC−−√RC\sqrt{\frac{R}{C}}RCRC\frac{R}{C} จนถึงขณะนี้ผมได้พบวิธีการอย่างใดอย่างหนึ่งเพื่อให้บรรลุนี้: เพียงแค่เริ่มต้นเมทริกซ์แบบสุ่ม (เช่นจากเครื่องแบบปกติหรือการกระจาย Laplace กับศูนย์ความแปรปรวนค่าเฉลี่ยและพล) แล้วแถวปกติสลับกันและคอลัมน์ที่จะสิ้นสุดด้วยการนอร์มัลไลซ์แถว สิ่งนี้ดูเหมือนว่าจะมาบรรจบกับผลลัพธ์ที่ต้องการอย่างรวดเร็ว (เช่นสำหรับและความแปรปรวนของความยาวคอลัมน์มักเป็น ~หลังจากการทำซ้ำครั้ง) แต่ฉันไม่แน่ใจว่าฉันจะขึ้นอยู่กับอัตราการบรรจบกันอย่างรวดเร็วนี้หรือไม่ โดยทั่วไป (สำหรับขนาดเมทริกซ์ต่างๆและการแจกแจงองค์ประกอบเริ่มต้น)length=1length=1{\rm length} = 1R=40R=40R=40C=80C=80C=80 0.00001 0.00001~0.00001222 คำถามของฉันคือ: มีวิธีที่จะบรรลุผลลัพธ์ที่ต้องการ ( , ) โดยตรงโดยไม่ต้องวนซ้ำ การนอร์มัลไลซ์แถว / คอลัมน์? เช่นบางอย่างเช่นอัลกอริทึมสำหรับการทำให้เวกเตอร์สุ่มเป็นปกติ (เริ่มต้นองค์ประกอบแบบสุ่ม, วัดผลรวมของค่าสแควร์, จากนั้นขยายสเกลแต่ละองค์ประกอบด้วยสเกลาร์ทั่วไป) ถ้าไม่มีมีการจำแนกลักษณะอย่างง่ายสำหรับอัตราการรวมกัน (เช่นการวนซ้ำจนเกิดข้อผิดพลาด ) ของวิธีการวนซ้ำที่อธิบายไว้ข้างต้นหรือไม่row lengths=1row lengths=1{\rm row \ …

2
กระบวนการมาร์คอฟประมาณขึ้นอยู่กับสถานะก่อนหน้า
ฉันแค่อยากให้ใครบางคนยืนยันความเข้าใจของฉันหรือถ้าฉันขาดอะไรบางอย่าง คำจำกัดความของกระบวนการมาร์คอฟบอกว่าขั้นตอนต่อไปขึ้นอยู่กับสถานะปัจจุบันเท่านั้นและไม่มีรัฐในอดีต สมมุติว่าเรามีพื้นที่รัฐของ a, b, c, d และเราไปจาก a-> b-> c-> d นั่นหมายความว่าการเปลี่ยนเป็น d สามารถขึ้นอยู่กับความจริงที่ว่าเราอยู่ใน c เท่านั้น อย่างไรก็ตามมันเป็นความจริงหรือไม่ที่คุณสามารถทำให้แบบจำลองมีความซับซ้อนมากขึ้นและชนิดของ "ข้อ จำกัด " นี้? กล่าวอีกนัยหนึ่งถ้าพื้นที่รัฐของคุณเป็น aa, ab, ac, โฆษณา, ba, bb, bc, bd, ca, cb, cc, cd, da, db, dc, dd ซึ่งหมายความว่าพื้นที่สถานะใหม่ของคุณกลายเป็น สถานะก่อนหน้ารวมกับสถานะปัจจุบันดังนั้นการเปลี่ยนแปลงข้างต้นจะเป็น * a-> ab-> bc-> cd และดังนั้นการเปลี่ยนเป็น cd (เทียบเท่าในรุ่นก่อนหน้านี้เป็น d) …

4
อัลกอริทึมการเรียนรู้ของเครื่องหรือการเรียนรู้ลึกสามารถนำมาใช้เพื่อ“ ปรับปรุง” กระบวนการสุ่มตัวอย่างของเทคนิค MCMC ได้หรือไม่?
จากความรู้เล็กน้อยที่ฉันมีในวิธีการ MCMC (มาร์คอฟโซ่มอนติคาร์โล) ฉันเข้าใจว่าการสุ่มตัวอย่างเป็นส่วนสำคัญของเทคนิคดังกล่าว วิธีการสุ่มตัวอย่างที่ใช้กันมากที่สุดคือ Hamiltonian และ Metropolis มีวิธีใช้ประโยชน์จากการเรียนรู้ของเครื่องจักรหรือแม้แต่การเรียนรู้ลึกเพื่อสร้างตัวอย่าง MCMC ที่มีประสิทธิภาพมากขึ้นหรือไม่?

6
ตัวอย่างของปัญหาโมเดลมาร์คอฟที่ซ่อนอยู่?
ฉันอ่านรุ่นมาร์คอฟที่ซ่อนอยู่ค่อนข้างน้อยและสามารถเขียนโค้ดเวอร์ชั่นพื้นฐานได้ด้วยตัวเอง แต่มีสองวิธีหลักที่ฉันดูเหมือนจะเรียนรู้ หนึ่งคือการอ่านและนำไปใช้เป็นโค้ด (ซึ่งเสร็จแล้ว) และที่สองคือการเข้าใจวิธีการใช้ภายใต้สถานการณ์ที่แตกต่างกัน (ดังนั้นฉันจึงสามารถเข้าใจได้ดียิ่งขึ้น ตัวอย่างทั้งหมดที่ฉันได้ทำไปนั้นเกี่ยวข้องกับการทำนายดีเอ็นเอบางอย่างหรือการโยนเหรียญ ฉันสงสัยว่ามีแหล่งข้อมูลใดที่จะทำให้เกิดปัญหามาร์คอฟอื่น ๆ (ภาษาไม่สำคัญ แต่หวังว่าจะมีคำตอบเช่นกันดังนั้นฉันจึงรู้ได้ว่าฉันถูกหรือผิด)?

4
วิธีการฉายเวกเตอร์ใหม่บนพื้นที่ PCA?
หลังจากทำการวิเคราะห์องค์ประกอบหลัก (PCA) ฉันต้องการฉายเวกเตอร์ใหม่ลงบนพื้นที่ PCA (เช่นค้นหาพิกัดในระบบพิกัด PCA) ผมได้คำนวณ PCA ในภาษา R prcompโดยใช้ ตอนนี้ฉันควรคูณเวกเตอร์ของฉันด้วยเมทริกซ์การหมุน PCA ควรจัดองค์ประกอบหลักในเมทริกซ์นี้เป็นแถวหรือคอลัมน์?
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

3
อะไรคือความแตกต่างระหว่าง "การ จำกัด " และการกระจาย "คงที่"?
ฉันกำลังทำคำถามเกี่ยวกับลูกโซ่มาร์คอฟและสองส่วนสุดท้ายบอกว่า: ห่วงโซ่มาร์คอฟนี้มีการกระจายที่ จำกัด หรือไม่ หากคำตอบของคุณคือ "ใช่" ให้ค้นหาการกระจายแบบ จำกัด หากคำตอบของคุณคือ "ไม่" ให้อธิบายว่าทำไม ห่วงโซ่มาร์คอฟนี้มีการกระจายที่คงที่หรือไม่ หากคำตอบของคุณคือ "ใช่" ให้ค้นหาการกระจายแบบนิ่ง หากคำตอบของคุณคือ "ไม่" ให้อธิบายว่าทำไม อะไรคือความแตกต่าง? ก่อนหน้านี้ฉันคิดว่าการ จำกัด การกระจายคือเมื่อคุณทำงานออกมาโดยใช้P=CAnC−1P=CAnC−1P = CA^n C^{-1}แต่นี่คือเมทริกซ์การเปลี่ยนขั้นตอนที่nnnพวกเขาคำนวณการ จำกัด การกระจายโดยใช้Π=ΠPΠ=ΠP\Pi = \Pi Pซึ่งฉันคิดว่าเป็นการกระจายแบบนิ่ง อันไหนล่ะ?

1
ตัวอย่างชีวิตจริงของกระบวนการตัดสินใจของมาร์คอฟ
ฉันได้ดูวิดีโอการสอนมากมายและพวกเขาดูเหมือนกัน ตัวอย่างนี้สำหรับ: https://www.youtube.com/watch?v=ip4iSMRW5X4 พวกเขาอธิบายถึงรัฐการกระทำและความน่าจะเป็นที่ดี บุคคลนั้นอธิบายว่าใช้ได้ แต่ฉันก็ดูเหมือนจะไม่เข้าใจว่ามันจะใช้อะไรในชีวิตจริง ฉันยังไม่พบรายการใด ๆ ในตอนนี้ สิ่งที่ฉันเห็นบ่อยที่สุดคือหมากรุก สามารถใช้ทำนายสิ่งต่างๆได้หรือไม่? ถ้าเป็นประเภทอะไร มันสามารถหารูปแบบในจำนวนข้อมูลที่ไม่ จำกัด ได้หรือไม่? อัลกอริทึมนี้สามารถทำอะไรให้ฉันได้บ้าง โบนัส: มันรู้สึกเหมือนว่า MDP เกี่ยวข้องกับการได้รับจากรัฐหนึ่งไปอีกรัฐหนึ่งจริงหรือไม่?

6
ตรวจสอบคุณสมบัติความจำของลูกโซ่มาร์คอฟ
ฉันสงสัยว่าชุดลำดับที่สังเกตเป็นห่วงโซ่มาร์คอฟ ... X=⎛⎝⎜⎜⎜⎜AB⋮BCA⋮CDA⋮ADC⋮DBA⋮AAD⋮BCA⋮E⎞⎠⎟⎟⎟⎟X=(ACDDBACBAACADA⋮⋮⋮⋮⋮⋮⋮BCADABE)X=\left(\begin{array}{c c c c c c c} A& C& D&D & B & A &C\\ B& A& A&C & A&D &A\\ \vdots&\vdots&\vdots&\vdots&\vdots&\vdots&\vdots\\ B& C& A&D & A & B & E\\ \end{array}\right) แต่วิธีการที่ฉันสามารถตรวจสอบว่าพวกเขาแน่นอนเคารพความจำทรัพย์สินของP(Xi=xi|Xj=xj)?P(Xi=xi|Xj=xj)?P(X_i=x_i|X_j=x_j)? หรืออย่างน้อยที่สุดก็พิสูจน์ว่าพวกเขาเป็นมาร์คอฟในธรรมชาติ? หมายเหตุเหล่านี้เป็นลำดับสังเกตสังเกตุ ความคิดใด ๆ แก้ไข เพียงเพื่อเพิ่มจุดมุ่งหมายคือการเปรียบเทียบชุดลำดับที่คาดการณ์จากคนที่สังเกต ดังนั้นเราขอขอบคุณความคิดเห็นเกี่ยวกับวิธีที่ดีที่สุดในการเปรียบเทียบสิ่งเหล่านี้ เมทริกซ์การเปลี่ยนลำดับที่หนึ่งMij=xij∑mxikMij=xij∑mxikM_{ij}=\displaystyle \frac{x_ij}{\sum^mx_{ik}}โดยที่ m = A..E ระบุ M=⎛⎝⎜⎜⎜⎜⎜⎜0.18340.46970.18270.23780.24580.30770.11360.24040.18180.17880.07690.00760.22120.06290.11730.14790.25000.19230.33570.17880.28400.15910.16350.18180.2793⎞⎠⎟⎟⎟⎟⎟⎟M=(0.18340.30770.07690.14790.28400.46970.11360.00760.25000.15910.18270.24040.22120.19230.16350.23780.18180.06290.33570.18180.24580.17880.11730.17880.2793) M=\left(\begin{array}{c …

2
บางคนสามารถอธิบายให้ฉัน NUTS เป็นภาษาอังกฤษได้ไหม
ความเข้าใจเกี่ยวกับอัลกอริทึมของฉันมีดังต่อไปนี้: No U-Turn Sampler (NUTS) เป็นวิธีการ Hamiltonian Monte Carlo ซึ่งหมายความว่ามันไม่ใช่วิธีของมาร์คอฟเชนดังนั้นขั้นตอนวิธีนี้จะหลีกเลี่ยงส่วนของการเดินแบบสุ่มซึ่งมักจะถือว่าไม่มีประสิทธิภาพและช้าในการบรรจบกัน แทนที่จะเดินแบบสุ่ม NUTS กระโดดข้ามความยาว x การกระโดดแต่ละครั้งจะเพิ่มเป็นสองเท่าเมื่ออัลกอริทึมยังคงทำงาน สิ่งนี้จะเกิดขึ้นจนกว่าวิถีจะถึงจุดที่ต้องการกลับไปยังจุดเริ่มต้น คำถามของฉัน: มีอะไรพิเศษเกี่ยวกับการกลับรถ? การเพิ่มเส้นทางเป็นสองเท่าไม่ข้ามจุดที่ปรับให้เหมาะสมได้อย่างไร คำอธิบายข้างต้นของฉันถูกต้องหรือไม่

2
คำอธิบายง่าย ๆ สำหรับช่วงเวลาในโซ่มาร์คอฟ
ใครช่วยอธิบายฉันด้วยวิธีที่เข้าใจง่ายว่าช่วงเวลาของห่วงโซ่มาร์คอฟคืออะไร? มันถูกกำหนดไว้ดังนี้: สำหรับทุกรัฐที่อยู่ในiiiSSS didid_i = gcd{n∈N|p(n)ii>0}=1{n∈N|pii(n)>0}=1\{n \in \mathbb{N} | p_{ii}^{(n)} > 0\} =1 Thank you for your effort!

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.