การเป็นตัวแทนของพื้นที่รัฐของ ARMA (p, q) จากแฮมิลตัน


11

ฉันได้อ่านแฮมิลตันบทที่ 13 และเขามีตัวแทนพื้นที่ของรัฐต่อไปนี้สำหรับ ARMA (p, q) ให้นั้นกระบวนการ ARMA (p, q) จะเป็นดังนี้: \ start {aligned} y_t - \ mu & = \ phi_1 (y_ {t-1} - \ mu) + \ phi_2 (y_ {t-2} - \ mu) + ... + \ phi_3 (y_ {t-3} - \ mu) \\ & + \ epsilon_t + \ theta_1 \ epsilon_ {t-1} + .. + \ theta_ {r-1} \ epsilon_ {t-r + 1} \ end {aligned} จากนั้นเขาจะกำหนดสมการสถานะดังนี้:r=max(p,q+1)

ytμ=ϕ1(yt1μ)+ϕ2(yt2μ)+...+ϕ3(yt3μ)+ϵt+θ1ϵt1+...+θr1ϵtr+1.

ξt+1=[ϕ1ϕ2ϕr1ϕr1000000010]ξt+[ϵt+100]

และสมการสังเกตเป็น:

yt=μ+[1θ1θ2θr1]ξt.

ฉันไม่เข้าใจว่าξtคืออะไรในกรณีนี้ เนื่องจากในการแทนค่า AR (p) ของเขามันคือ[ytμyt1μytp+1μ]และปริญญาโท (1) การแสดงมันเป็น[ϵtϵt1]{bmatrix}

ใครช่วยอธิบายเรื่องนี้ให้ฉันดีขึ้นหน่อยได้ไหม

คำตอบ:


10

แฮมิลตันแสดงให้เห็นว่านี่เป็นการนำเสนอที่ถูกต้องในหนังสือเล่มนี้ แต่วิธีการอาจดูเหมือนขัดกับความเป็นจริงเล็กน้อย ดังนั้นก่อนอื่นให้ฉันให้คำตอบระดับสูงที่กระตุ้นการเลือกแบบจำลองของเขาแล้วอธิบายรายละเอียดเล็กน้อยเกี่ยวกับที่มาของเขา

แรงจูงใจ :

อย่างที่ควรจะชัดเจนจากการอ่านบทที่ 13 มีหลายวิธีในการเขียนแบบไดนามิกในรูปแบบพื้นที่ของรัฐ ดังนั้นเราจึงควรถามว่าทำไมแฮมิลตันจึงเลือกตัวแทนพิเศษนี้ เหตุผลก็คือว่าการเป็นตัวแทนนี้ช่วยให้มิติของสถานะเวกเตอร์ต่ำ สังหรณ์ใจคุณจะคิด (หรืออย่างน้อยฉันจะ) ที่เวกเตอร์รัฐสำหรับ ARMA ( , ) จะต้องมีอย่างน้อยของมิติ Q หลังจากที่ทุกคนเพียง แต่จากการสังเกตการพูดเราไม่สามารถสรุปค่าของ{t-1} ถึงกระนั้นเขาก็แสดงให้เห็นว่าเราสามารถกำหนดการเป็นตัวแทนของรัฐในพื้นที่อย่างชาญฉลาดที่ทำให้เวกเตอร์สถานะของมิติpqp+qyt1ϵt1r=max{p,q+1}. ฉันคาดว่าการรักษามิติข้อมูลระดับต่ำของรัฐอาจมีความสำคัญสำหรับการใช้งานการคำนวณ ปรากฎว่าการเป็นตัวแทนพื้นที่รัฐของเขายังนำเสนอการตีความที่ดีของกระบวนการ ARMA: รัฐที่ไม่ได้สังเกตเห็นคือ AR ( ) ในขณะที่ส่วน MA ( ) เกิดขึ้นเนื่องจากข้อผิดพลาดในการวัดpq

แหล่งที่มา :

ตอนนี้มาจาก โปรดทราบว่าการใช้เครื่องหมายตัวดำเนินการล้าหลัง ARMA (p, q) ถูกกำหนดเป็น: ที่เราให้สำหรับและสำหรับและเราละเว้นเนื่องจากเป็นอย่างน้อย . สิ่งที่เราต้องแสดงก็คือสมการสถานะและการสังเกตของเขาแสดงถึงสมการข้างต้น ปล่อยให้เวกเตอร์สถานะเป็น ดูที่ สมการสถานะ คุณสามารถตรวจสอบสมการถึง

(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt
ϕj=0j>pθj=0j>qθrrq+1
ξt={ξ1,t,ξ2,t,,ξr,t}
2rก็ย้ายรายการจะระยะเวลาหนึ่งข้างหน้าและทิ้งในเวกเตอร์รัฐที่ 1 สมการแรกที่นิยามจึงเป็นสมการที่เกี่ยวข้อง กำลังเขียนมัน: เนื่องจากองค์ประกอบที่สองของเป็นองค์ประกอบแรกของและองค์ประกอบที่สามของคือ องค์ประกอบแรกของξi,tξi1,t+1ξr,tt+1ξi,t+1
ξ1,t+1=ϕ1ξ1,t+ϕ2ξ2,t++ϕrξr,t+ϵt+1
ξtξt1ξtξt2และอื่น ๆ เราสามารถเขียนสิ่งนี้โดยใช้สัญกรณ์ตัวดำเนินการล้าและย้ายพหุนามความล่าช้าไปทางด้านซ้ายมือ (สมการ 13.1.24 ใน H. ): ดังนั้นสถานะที่ซ่อนอยู่จะเป็นไปตามกระบวนการอัตโนมัติ ในทำนองเดียวกันสมการสังเกตคือ หรือ สิ่งนี้ดูไม่เหมือน ARMA แต่ตอนนี้มาถึงแล้ว ส่วนที่ดี: คูณสมการสุดท้ายด้วย :
(1ϕ1LϕrLr)ξ1,t+1=ϵt+1
yt=μ+ξ1,t+θ1ξ2,t++θr1ξr1,t
ytμ=(1+θ1L++θr1Lr1)ξ1,t
(1ϕ1LϕrLr)
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)(1ϕ1LϕrLr)yt
แต่จากสมการของรัฐ (ล่าช้าด้วยช่วงเวลาหนึ่ง) เรามี ! ดังนั้นข้างต้นจึงเท่ากับ ซึ่งเป็นสิ่งที่เราต้องการให้แสดง! ดังนั้นระบบสังเกตสถานะอย่างถูกต้องจึงแสดงถึง ARMA (p, q) ฉันแค่ถอดความแฮมิลตันจริงๆ แต่ฉันหวังว่านี่จะเป็นประโยชน์(1ϕ1LϕrLr)ξ1,t=ϵt
(1ϕ1LϕrLr)(ytμ)=(1+θ1L++θr1Lr1)ϵt

ฉันไม่ได้ขายการตีความของรัฐทั้งหมด เมื่อคุณเขียนบรรทัดแรกของสมการการเปลี่ยนสถานะดูเหมือนว่าสมการที่ขัดแย้งกับตัวแบบที่สันนิษฐาน นอกจากนี้ฉันคิดว่ามันแปลกที่คุณคิดว่าข้อมูลที่สังเกตได้ในเวลาเดียวกันซ่อน / แฝง
เทย์เลอร์

คุณมีสิทธิรัฐย่อมไม่เหมือนกับy_tขอบคุณที่ชี้นำสิ่งนี้ ฉันแก้ไขมันควรจะดีตอนนี้ Btw โดยทั่วไปเราสามารถสังเกตตัวแปรในเวกเตอร์สถานะดูตัวอย่าง AR (p) มีตัวแปรที่ซ่อนอยู่อาจจะคิดว่าเป็นค่างวดถัดไปของ1} ytyt+1
Matthias Schmidtblaicher

ขอบคุณ! แต่ฉันยังคงสับสนกับสิ่งที่อยู่ในการเป็นตัวแทนของสเปซ ไม่ใช่ตัวอย่างเช่นนิยามของในสมการ 13.1.15 และ 13.1.14 สำหรับกระบวนการ AR (p) และ MA (1) ความสับสนของฉันคือถ้าฉันใส่มันลงใน matlab ฉันจะได้ตัวเลขอะไรใน ? ξξξ
dleal

สิ่งที่ทำให้เกิดความสับสนในที่นี้คือการสร้างแบบจำลองพื้นที่ของรัฐนั้นเกี่ยวข้องกับสภาวะที่ซ่อนเร้นในขณะที่กระบวนการ ARMA นั้นเราไม่คิดว่าตัวแปรซ่อนเร้น การเป็นตัวแทนพื้นที่ของรัฐและเทคนิคการกรอง (คาลมาน) ได้รับแรงบันดาลใจจากการกรองสถานะที่ไม่ได้ตรวจสอบ สำหรับกระบวนการ ARMA เราเพิ่งใช้สูตรของแบบจำลองพื้นที่รัฐเพื่อให้เราสามารถประเมินพารามิเตอร์โดยใช้ตัวกรองคาลมาน ดังนั้นเราจึงค่อนข้าง จำกัด กำหนดสถานะที่ซ่อนอยู่ใน 13.1.4 เป็นข้อสังเกตของงวดถัดไปในขณะที่ใน 13.1.22 รัฐเป็นตัวแปรใหม่ที่ไม่ปรากฏในรูปแบบเดิม yt+1
Matthias Schmidtblaicher

เพื่อตอบคำถามของคุณเกี่ยวกับ Matlab: ถ้าคุณเริ่มต้นจาก ARMA (p, q),ไม่ใช่ตัวแปรที่ปรากฏในรูปแบบนั้น อย่างไรก็ตามการแทนพื้นที่ของรัฐนั้นมีการตีความ ARMA (p, q) ที่แตกต่างกัน: สถานะที่ซ่อนอยู่อาจเป็นตัวแปรที่คุณสนใจและโครงสร้าง MA (q) เกิดขึ้นเนื่องจากข้อผิดพลาดในการวัด คุณสามารถเขียน AR (1) และเพิ่มสัญญาณรบกวนสีขาวเพื่อดูว่าโครงสร้าง ARMA เกิดขึ้น ξ
Matthias Schmidtblaicher

8

นี่เป็นเหมือนข้างต้น แต่ฉันคิดว่าฉันจะให้คำตอบที่สั้นและกระชับยิ่งขึ้น อีกครั้งนี้เป็นตัวแทนของแฮมิลตันสำหรับสาเหตุ ARMA ( , ) กระบวนการที่1) หมายเลขนี้จะเป็นส่วนหนึ่งของเวกเตอร์สถานะและจำเป็นต้องสร้างจำนวนแถวของ จับคู่สถานะกับจำนวนคอลัมน์ของเมทริกซ์การสังเกต นั่นหมายความว่าเราต้องตั้งค่าสัมประสิทธิ์เป็นศูนย์ทุกครั้งที่ดัชนีใหญ่เกินไปpqr=max(p,q+1)r(ξt,ξt1,,ξtr+1)

  1. สมการการสังเกต

ϕ(B)(ytμ)=θ(B)ϵt(causality)(ytμ)=ϕ1(B)θ(B)ϵtyt=μ+ϕ1(B)θ(B)ϵtyt=μ+θ(B)ϕ1(B)ϵt(letting ξt=ϕ1(B)ϵt)yt=μ+θ(B)ξt(this is where we need r)yt=μ+[1θ1θ2θr1][ξtξt1ξtr+1]the state vector+0.
  1. สมการของรัฐ

ξt=ϕ1(B)ϵtϕ(B)ξt=ϵt(1ϕ1BϕrBr)ξt=ϵtξt=ϕ1ξt1++ϕrξtr+ϵt[ξtξt1ξt2ξtr+1]=[ϕ1ϕ2ϕ3ϕr1000010000010][ξt1ξt2ξtr]+[ϵt00].

1
นี่ทำให้ในที่สุดก็ชัดเจนว่าสมการสถานะเหล่านั้นมาจากไหน ฉันคิดว่ามันเหมือนกับว่าดีกว่าการให้สมการที่ปรากฏขึ้นแบบสุ่มกับโน้ตว่ามันออกมาถูกต้อง
Alex

@ CowboyTrader ใช่ถูกต้อง อย่างน้อยสำหรับการเป็นตัวแทน ARMA นี้ มีบางคนอื่น ๆ
เทย์เลอร์

@ CowboyTrader ไม่ แต่ฉันจะบอกว่านี่เป็นความรู้สึกที่สมเหตุสมผลเพราะวรรณกรรมในแบบจำลองอวกาศของรัฐนั้นมีอคติต่อการกรอง มีสมการทำนายแบบเรียกซ้ำสำหรับแบบจำลองพื้นที่รัฐเชิงเส้นเกาส์เซียนอยู่ แต่คุณจะได้รับข้อมูลการกรองเป็นโบนัสเพิ่ม
เทย์เลอร์

@CowboyTrader โปรดส่งอีเมลถึงฉัน ฉันรู้ว่าไม่ใช่ทุกคนที่ชอบการอภิปรายที่เพิ่มขึ้นในความคิดเห็น
เทย์เลอร์

ฉันเห็นว่ามันได้รับการพิสูจน์แล้ว แต่คุณช่วยกรุณาให้สัญชาตญาณบ้างไหม? ตัวแปรสถานะคืออะไรเวกเตอร์สถานะ t = 0 คืออะไร
แฟรงค์
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.