MLE ต้องการข้อมูล iid หรือไม่ หรือเพียงแค่พารามิเตอร์อิสระ


16

การประมาณค่าพารามิเตอร์โดยใช้การประมาณความน่าจะเป็นสูงสุด (MLE) เกี่ยวข้องกับการประเมินฟังก์ชั่นความน่าจะเป็นซึ่งแผนที่ความน่าจะเป็นของตัวอย่าง (X) ที่เกิดขึ้นกับค่า (x) บนพื้นที่พารามิเตอร์ (θ) ที่กำหนดตระกูลการแจกแจง (P (X = x | θ) ) มากกว่าค่าที่เป็นไปได้ของθ (หมายเหตุ: ฉันถูกใช่ไหม?) ตัวอย่างทั้งหมดที่ฉันได้เห็นเกี่ยวข้องกับการคำนวณ P (X = x | θ) โดยการหาผลคูณของ F (X) โดยที่ F เป็นการแจกแจงแบบท้องถิ่น ค่าสำหรับθและ X คือตัวอย่าง (เวกเตอร์)

เนื่องจากเราเพิ่งคูณข้อมูลมันติดตามว่าข้อมูลนั้นเป็นอิสระหรือไม่ เช่นเราไม่สามารถใช้ MLE ให้พอดีกับข้อมูลอนุกรมเวลาได้หรือไม่ หรือพารามิเตอร์ต้องเป็นอิสระ?

คำตอบ:


14

ฟังก์ชันความน่าจะเป็นหมายถึงความน่าจะเป็นของเหตุการณ์E (ชุดข้อมูลx ) เป็นฟังก์ชันของพารามิเตอร์โมเดลθ

L(θ;x)P(Event E;θ)=P(observing x;θ).

ดังนั้นจึงไม่มีข้อสันนิษฐานเกี่ยวกับความเป็นอิสระของข้อสังเกต ในแนวทางแบบคลาสสิกไม่มีคำจำกัดความความเป็นอิสระของพารามิเตอร์เนื่องจากไม่ใช่ตัวแปรสุ่ม แนวคิดที่เกี่ยวข้องบางอย่างอาจระบุได้พารามิเตอร์ความตั้งฉากกันและความเป็นอิสระของเครื่องมือประมาณค่าความน่าจะเป็นสูงสุด (ซึ่งเป็นตัวแปรสุ่ม)

ตัวอย่างบางส่วน

(1) กรณีที่ไม่ต่อเนื่อง x=(x1,...,xn)คือตัวอย่างของ (อิสระ) ข้อสังเกตที่ไม่ต่อเนื่องกับP(observing xj;θ)>0แล้ว

L(θ;x)j=1nP(observing xj;θ).

โดยเฉพาะอย่างยิ่งถ้าxjBinomial(N,θ)โดยที่Nรู้จักเรามี

L(θ;x)j=1nθxj(1θ)Nxj.

(2) ประมาณอย่างต่อเนื่อง ให้เป็นตัวอย่างจากอย่างต่อเนื่องตัวแปรสุ่มXมีการกระจายFและความหนาแน่นของมีข้อผิดพลาดในการวัดεนี้คือคุณสังเกตชุด( x J - ε , x J + ε ) แล้วก็x=(x1,...,xn)XFfϵ(xjϵ,xj+ϵ)

L(θ;x)j=1nP[observing (xjϵ,xj+ϵ);θ]=j=1n[F(xj+ϵ;θ)F(xjϵ;θ)]

เมื่อมีขนาดเล็กสิ่งนี้สามารถประมาณได้ (โดยใช้ทฤษฎีค่าเฉลี่ย) โดยϵ

L(θ;x)j=1nf(xj;θ)

เช่นกับกรณีปกติให้ดูที่นี้

(3) โมเดลที่ขึ้นกับและมาร์คอฟ สมมติว่าเป็นชุดของการสังเกตอาจจะขึ้นอยู่และปล่อยให้เอฟจะมีความหนาแน่นร่วมกันของxแล้วx=(x1,...,xn)fx

L(θ;x)f(x;θ).

หากว่าคุณสมบัติของมาร์คอฟเป็นที่น่าพึงพอใจ

L(θ;x)f(x;θ)=f(x1;θ)j=1n1f(xj+1|xj;θ).

ลองดูที่นี่สิ


3
จากที่คุณเขียนฟังก์ชั่นความน่าจะเป็นเป็นผลิตภัณฑ์โดยปริยายคุณสมมติว่าโครงสร้างการพึ่งพาอาศัยอยู่ระหว่างการสังเกต ดังนั้นสำหรับ MLE คนหนึ่งต้องการสมมติฐานสองข้อ (ก) ข้อหนึ่งเกี่ยวกับการกระจายของผลลัพธ์แต่ละรายการและ (ข) ข้อหนึ่งขึ้นอยู่กับการพึ่งพาระหว่างผลลัพธ์

10

(+1) คำถามที่ดีมาก

สิ่งเล็ก ๆ น้อย ๆ MLE ย่อมาจากการประมาณความน่าจะเป็นสูงสุด (ไม่ใช่หลาย ๆ ค่า) ซึ่งหมายความว่าคุณเพิ่งเพิ่มโอกาสสูงสุด นี่ไม่ได้ระบุว่าจะต้องมีการสร้างโอกาสโดยการสุ่มตัวอย่าง IID

หากการพึ่งพาของการสุ่มตัวอย่างสามารถเขียนในแบบจำลองทางสถิติคุณเพียงแค่เขียนความเป็นไปได้ตามนั้นและเพิ่มมันตามปกติ

กรณีหนึ่งที่มีมูลค่าการกล่าวขวัญเมื่อคุณไม่ถือว่าการพึ่งพานั้นคือการสุ่มตัวอย่าง Gaussian หลายตัวแปร (ในตัวอย่างการวิเคราะห์อนุกรมเวลา) การพึ่งพาระหว่างตัวแปรเกาส์เซียนสองตัวสามารถถูกจำลองโดยเทอมความแปรปรวนร่วมซึ่งคุณรวมอยู่ในความเป็นไปได้

To give a simplistic example, assume that you draw a sample of size 2 from correlated Gaussian variables with same mean and variance. You would write the likelihood as

12πσ21ρ2exp(z2σ2(1ρ2)),

where z is

z=(x1μ)22ρ(x1μ)(x2μ)+(x2μ)2.

This is not the product of the individual likelihoods. Still, you would maximize this with parameters (μ,σ,ρ) to get their MLE.


2
These are good answers and examples. The only thing I would add to see this in simple terms is that likelihood estimation only requires that a model for the generation of the data be specified in terms of some unknown parameters be described in functional form.
Michael R. Chernick

(+1) Absolutely true! Do you have an example of model that cannot be specified in those terms?
gui11aume

@gu11aume I think you are referring to my remark. I would say that I was not giving a direct answer to the question. The answwer to the question is yes because there are examples that can be shown where the likelihood function can be expressed when the data are genersted by dependent random variables.
Michael R. Chernick

2
Examples where this cannot be done would be where the data are given without any description of the data generating mechanism or the model is not presented in a parametric form such as when you are given two iid data sets and are asked to test whether they come from the same distribution where you only specify that the distributions are absolutely continuous.
Michael R. Chernick

4

Of course, Gaussian ARMA models possess a likelihood, as their covariance function can be derived explicitly. This is basically an extension of gui11ame's answer to more than 2 observations. Minimal googling produces papers like this one where the likelihood is given in the general form.

Another, to an extent, more intriguing, class of examples is given by multilevel random effect models. If you have data of the form

yij=xijβ+ui+ϵij,
where indices j are nested in i (think of students j in classrooms i, say, for a classic application of multilevel models), then, assuming ϵijui, the likelihood is
lnLilnjf(yij|β,ui)dF(ui)
and is a sum over the likelihood contributions defined at the level of clusters, not individual observations. (Of course, in the Gaussian case, you can push the integrals around to produce an analytic ANOVA-like solution. However, if you have say a logit model for your response yij, then there is no way out of numerical integration.)

2
Stask and @gui11aume, these three answers are nice but I think they miss a point: what about the consistency of the MLE for dependent data ?
Stéphane Laurent
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.