คำถามติดแท็ก unbiased-estimator

อ้างถึงตัวประมาณของพารามิเตอร์ประชากรที่ "เข้าถึงค่าจริง" โดยเฉลี่ย นั่นคือฟังก์ชั่นของข้อมูลที่สังเกตได้θ^ เป็นตัวประมาณของพารามิเตอร์แบบไม่เอนเอียง θ ถ้า E(θ^)=θ. ตัวอย่างที่ง่ายที่สุดของตัวประมาณค่าที่เป็นกลางคือค่าเฉลี่ยตัวอย่างเป็นตัวประมาณค่าเฉลี่ยของประชากร

1
ตัวประมาณที่ไม่เอนเอียงพร้อมความแปรปรวนขั้นต่ำสำหรับ
ให้เป็นตัวอย่าง feom สุ่มกระจายสำหรับ&lt;1 กล่าวคือX1,...,XnX1,...,Xn X_1, ...,X_nGeometric(θ)Geometric(θ)Geometric(\theta)0&lt;θ&lt;10&lt;θ&lt;10<\theta<1 pθ(x)=θ(1−θ)x−1I{1,2,...}(x)pθ(x)=θ(1−θ)x−1I{1,2,...}(x)p_{\theta}(x)=\theta(1-\theta)^{x-1} I_{\{1,2,...\}}(x) ค้นหาตัวประมาณค่าที่เป็นกลางพร้อมค่าความแปรปรวนขั้นต่ำสำหรับg(θ)=1θg(θ)=1θg(\theta)=\frac{1}{\theta} ความพยายามของฉัน: ตั้งแต่การกระจายทางเรขาคณิตจากครอบครัวชี้แจงสถิติเสร็จสมบูรณ์และเพียงพอสำหรับ\นอกจากนี้หากเป็นตัวประมาณสำหรับมันจะไม่เอนเอียง ดังนั้นโดยทฤษฎีบท Rao-Blackwell และทฤษฎีบท Lehmann-Schefféทฤษฎีบท เป็นตัวประมาณที่เรากำลังมองหา∑Xi∑Xi\sum X_i θθ \thetaT(X)=X1T(X)=X1T(X)=X_1g(θ)g(θ)g(\theta)W(X)=E[X1|∑Xi]W(X)=E[X1|∑Xi]W(X) = E[X_1|\sum X_i] เรามีดังต่อไปนี้: W(X)=∑ti=1iP(X1=i|∑Xi=t)=∑ti=1iP(∑i≥2Xi=t−i)P(X1=i)P(∑i≥1Xi=t)W(X)=∑i=1tiP(X1=i|∑Xi=t)=∑i=1tiP(∑i≥2Xi=t−i)P(X1=i)P(∑i≥1Xi=t)W(X) = \sum_{i=1}^t i\, P(X_1=i|\sum X_i =t) = \sum_{i=1}^t i\, \frac{P(\sum_{i \geq 2} X_i =t-i)P(X_1=i)}{P(\sum_{i \geq 1}X_i =t)} เนื่องจากตัวแปรเป็น iid เรขาคณิตการกระจายผลรวมนั้นมีทั้งแบบทวินามลบ แต่ฉันกำลังมีปัญหาในการประมาณค่าสัมประสิทธิ์ทวินามและให้คำตอบสุดท้ายด้วยแบบฟอร์มที่ดีกว่าถ้าเป็นไปได้ฉันจะดีใจถ้าฉันได้รับความช่วยเหลือ ขอบคุณ! แก้ไข:ฉันไม่คิดว่าพวกคุณเข้าใจความสงสัยของฉัน:ฉันคิดว่าฉันทำทุกขั้นตอนที่ถูกต้องอาจจะลืมฟังก์ชั่นตัวบ่งชี้บางอย่างเท่านั้น นี่คือสิ่งที่ฉันทำ: ...=∑i=1ti(t−i−1n−2)θn−i(1−θ)t−i−n+1θ(1−θ)i−1(t−1n−1)θn(1−θ)t−n=∑i=1ti(t−i−1n−2)(t−1n−1)...=∑i=1ti(t−i−1n−2)θn−i(1−θ)t−i−n+1θ(1−θ)i−1(t−1n−1)θn(1−θ)t−n=∑i=1ti(t−i−1n−2)(t−1n−1)...=\sum_{i=1}^ti\frac{\binom{t-i-1}{n-2}\theta^{n-i}(1-\theta)^{t-i-n+1} \theta(1-\theta)^{i-1}}{\binom{t-1}{n-1}\theta^n(1-\theta)^{t-n}}=\sum_{i=1}^t …

1
อคติของตัวประมาณความน่าจะเป็นสูงสุดสำหรับการถดถอยโลจิสติก
ฉันต้องการที่จะเข้าใจข้อเท็จจริงบางประการเกี่ยวกับตัวประมาณความน่าจะเป็นสูงสุด (MLEs) สำหรับการถดถอยโลจิสติก โดยทั่วไป MLE สำหรับการถดถอยโลจิสติกนั้นมีอคติหรือไม่? ฉันจะพูดว่า "ใช่" ตัวอย่างเช่นฉันรู้ว่ามิติของตัวอย่างนั้นเกี่ยวข้องกับอคติของ MLEs คุณรู้ตัวอย่างเบื้องต้นของปรากฏการณ์นี้หรือไม่? ถ้า MLE นั้นเอนเอียงเป็นจริงหรือไม่ที่เมทริกซ์ความแปรปรวนร่วมของ MLEs เป็นค่าผกผันของ Hessian ของฟังก์ชันความน่าจะเป็นสูงสุด? แก้ไข : ฉันได้พบสูตรนี้ค่อนข้างบ่อยและไม่มีหลักฐานใด ๆ ; ดูเหมือนจะเป็นทางเลือกที่ค่อนข้างอิสระสำหรับฉัน

2
ปรับปรุงตัวประมาณขั้นต่ำ
สมมติว่าผมมีค่าบวกในการประมาณการของพวกเขาและสอดคล้องประมาณการเป็นกลางผลิตโดยตัวประมาณคือ ,เป็นต้นnnnμ1,μ2,...,μnμ1,μ2,...,μn\mu_1,\mu_2,...,\mu_nnnnμ1^,μ2^,...,μn^μ1^,μ2^,...,μn^\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}E[μ1^]=μ1E[μ1^]=μ1\mathrm E[\hat{\mu_1}]=\mu_1E[μ2^]=μ2E[μ2^]=μ2\mathrm E[\hat{\mu_2}]=\mu_2 ฉันต้องการประมาณโดยใช้การประมาณการในมือ เห็นได้ชัดว่าไร้เดียงสามีอคติต่ำกว่า min(μ1,μ2,...,μn)min(μ1,μ2,...,μn)\mathrm{min}(\mu_1,\mu_2,...,\mu_n)min(μ1^,μ2^,...,μn^)min(μ1^,μ2^,...,μn^)\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)E[min(μ1^,μ2^,...,μn^)]≤min(μ1,μ2,...,μn)\mathrm E[\mathrm{min}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n})]\leq \mathrm{min}(\mu_1,\mu_2,...,\mu_n) สมมติว่าฉันยังมีเมทริกซ์ความแปรปรวนร่วมของตัวประมาณอยู่ในมือ เป็นไปได้ไหมที่จะได้รับการประเมินขั้นต่ำแบบไม่เอนเอียง (หรือมีอคติน้อยกว่า) โดยใช้การประมาณที่กำหนดและเมทริกซ์ความแปรปรวนร่วม?Cov(μ1^,μ2^,...,μn^)=ΣCov(μ1^,μ2^,...,μn^)=Σ\mathrm{Cov}(\hat{\mu_1},\hat{\mu_2},...,\hat{\mu_n}) = \Sigma

1
รูปแบบการเรียนรู้แบบลึกใดที่สามารถจำแนกหมวดหมู่ที่ไม่ได้เกิดร่วมกัน
ตัวอย่าง: ฉันมีประโยคในรายละเอียดงาน: "วิศวกรอาวุโสของ Java ในสหราชอาณาจักร" ฉันต้องการที่จะใช้รูปแบบการเรียนรู้ที่ลึกที่จะคาดการณ์ว่ามันเป็น 2 ประเภทและEnglish IT jobsถ้าฉันใช้รูปแบบการจำแนกแบบดั้งเดิมมันสามารถทำนายได้เพียง 1 ฉลากที่มีsoftmaxฟังก์ชั่นที่ชั้นสุดท้าย ดังนั้นฉันสามารถใช้โครงข่ายประสาทเทียม 2 แบบในการทำนาย "ใช่" / "ไม่" กับทั้งสองหมวดหมู่ แต่ถ้าเรามีหมวดหมู่มากขึ้นมันก็แพงเกินไป ดังนั้นเราจึงมีรูปแบบการเรียนรู้หรือการเรียนรู้ด้วยเครื่องเพื่อคาดการณ์ 2 หมวดหมู่ขึ้นไปพร้อมกันหรือไม่ "แก้ไข": ด้วย 3 ป้ายกำกับโดยวิธีดั้งเดิมมันจะถูกเข้ารหัสโดย [1,0,0] แต่ในกรณีของฉันมันจะถูกเข้ารหัสโดย [1,1,0] หรือ [1,1,1] ตัวอย่าง: หากเรามี 3 ป้ายกำกับและประโยคอาจเหมาะกับป้ายกำกับเหล่านี้ทั้งหมด ดังนั้นถ้าผลลัพธ์จากฟังก์ชัน softmax คือ [0.45, 0.35, 0.2] เราควรแบ่งมันออกเป็น 3 label หรือ 2 label หรืออาจเป็นหนึ่ง? ปัญหาหลักเมื่อเราทำคือ: …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.