ถ้าคุณมีตัวอย่างจากการแจกแจงพาเรโตพร้อมพารามิเตอร์และ (โดยที่คือพารามิเตอร์ขอบเขตล่างและเป็นพารามิเตอร์รูปร่าง) ความน่าจะเป็นของบันทึกการทำงานนั้น ตัวอย่างคือ: m > 0 α > 0 m αX1,...,Xnm>0α>0mα
nlog(α)+nαlog(m)−(α+1)∑i=1nlog(Xi)
นี้เป็น monotonically เพิ่มขึ้นในดังนั้น Maximizer ที่มีค่ามากที่สุดที่มีความสอดคล้องกับข้อมูลที่สังเกต เนื่องจากพารามิเตอร์กำหนดขอบเขตล่างของการสนับสนุนสำหรับการแจกแจงแบบพาเรโตจึงเป็นค่าที่เหมาะสมที่สุดม.mm
m^=miniXi
ซึ่งไม่ได้ขึ้นอยู่กับ\ขั้นต่อไปโดยใช้เทคนิคแคลคูลัสสามัญ MLE สำหรับจะต้องตอบสนองอัลฟ่าαα
nα+nlog(m^)−∑i=1nlog(Xi)=0
พีชคณิตธรรมดาบางตัวบอกเราว่า MLE ของคืออะไรα
α^=n∑ni=1log(Xi/m^)
ในประสาทสัมผัสที่สำคัญหลายอย่าง (เช่นประสิทธิภาพเชิง asymptotic ที่ดีที่สุดในการที่จะบรรลุขอบเขตล่าง Cramer-Rao) นี่เป็นวิธีที่ดีที่สุดในการปรับข้อมูลให้เหมาะกับการแจกแจงพาเรโต รหัส R ด้านล่างคำนวณ MLE X
สำหรับชุดข้อมูลที่กำหนด
pareto.MLE <- function(X)
{
n <- length(X)
m <- min(X)
a <- n/sum(log(X)-log(m))
return( c(m,a) )
}
# example.
library(VGAM)
set.seed(1)
z = rpareto(1000, 1, 5)
pareto.MLE(z)
[1] 1.000014 5.065213
แก้ไข:จากความเห็นของ @cardinal และฉันด้านล่างเราสามารถทราบได้ว่าเป็นส่วนกลับของค่าเฉลี่ยตัวอย่างของซึ่งเกิดขึ้นกับ มีการแจกแจงแบบเลขชี้กำลัง ดังนั้นหากเราสามารถเข้าถึงซอฟต์แวร์ที่สามารถกระจายการแจกแจงแบบเอ็กซ์โพเนนเชียล (ซึ่งมีโอกาสมากขึ้นเนื่องจากมันดูเหมือนว่าจะเกิดขึ้นในหลาย ๆ ปัญหาทางสถิติ) ดังนั้นการปรับการแจกแจงแบบ Pareto สามารถทำได้โดยการเปลี่ยนชุดข้อมูลด้วยวิธีนี้ เป็นการแจกแจงแบบเอ็กซ์โพเนนเชียลในสเกลที่ถูกแปลง เข้าสู่ระบบ(Xฉัน/ม. )α^log(Xi/m^)