เรามาคุยกันเพื่อที่จะมุ่งเน้นไปที่ปมของเรื่อง ฉันจะสะกดรายละเอียดที่น้อยที่สุดเพื่อไม่ต้องสงสัย การวิเคราะห์ต้องการเพียงสิ่งต่อไปนี้:
มัชฌิมเลขคณิตของชุดของตัวเลขถูกกำหนดให้เป็นz1,…,zm
1ม.( z1+ ⋯ +zม.).
ความคาดหวังเป็นตัวดำเนินการเชิงเส้น นั่นคือเมื่อเป็นตัวแปรสุ่มและα iเป็นตัวเลขดังนั้นความคาดหวังของชุดค่าผสมเชิงเส้นคือชุดค่าผสมเชิงเส้นของความคาดหวังZi,i=1,…,mαi
E(α1Z1+⋯+αmZm)=α1E(Z1)+⋯+αmE(Zm).
Let B be a sample (B1,…,Bk) obtained from a dataset x=(x1,…,xn) by taking k elements uniformly from x with replacement. Let m(B) be the arithmetic mean of B. This is a random variable. Then
E(m(B))=E(1k(B1+⋯+Bk))=1k(E(B1)+⋯+E(Bk))
follows by linearity of expectation. Since the elements of B are all obtained in the same fashion, they all have the same expectation, b say:
E(B1)=⋯=E(Bk)=b.
This simplifies the foregoing to
E(m(B))=1k(b+b+⋯+b)=1k(kb)=b.
By definition, the expectation is the probability-weighted sum of values. Since each value of X is assumed to have an equal chance of 1/n of being selected,
E(m(B))=b=E(B1)=1nx1+⋯+1nxn=1n(x1+⋯+xn)=x¯,
the arithmetic mean of the data.
To answer the question, if one uses the data mean x¯ to estimate the population mean, then the bootstrap mean (which is the case k=n) also equals x¯, and therefore is identical as an estimator of the population mean.
For statistics that are not linear functions of the data, the same result does not necessarily hold. However, it would be wrong simply to substitute the bootstrap mean for the statistic's value on the data: that is not how bootstrapping works. Instead, by comparing the bootstrap mean to the data statistic we obtain information about the bias of the statistic. This can be used to adjust the original statistic to remove the bias. As such, the bias-corrected estimate thereby becomes an algebraic combination of the original statistic and the bootstrap mean. For more information, look up "BCa" (bias-corrected and accelerated bootstrap) and "ABC". Wikipedia provides some references.