การประมาณค่าถดถอยแบบปรับโทษเช่น LASSO และสันถูกกล่าวว่าสอดคล้องกับตัวประมาณแบบเบย์กับนักบวชบางคน
ใช่ถูกต้องแล้ว เมื่อใดก็ตามที่เรามีปัญหาการปรับให้เหมาะสมที่เกี่ยวข้องกับการเพิ่มฟังก์ชั่นการบันทึกความน่าจะเป็นสูงสุดรวมถึงฟังก์ชั่นการลงโทษกับพารามิเตอร์ † เพื่อดูนี้สมมติว่าเรามีฟังก์ชั่นการลงโทษWใช้ปรับพารามิเตอร์λ ฟังก์ชันวัตถุประสงค์ในกรณีเหล่านี้สามารถเขียนเป็น:†wλ
Hx(θ|λ)=ℓx(θ)−w(θ|λ)=ln(Lx(θ)⋅exp(−w(θ|λ)))=ln(Lx(θ)π(θ|λ)∫Lx(θ)π(θ|λ)dθ)+const=lnπ(θ|x,λ)+const,
ที่เราใช้ก่อนπ(θ|λ)∝exp(−w(θ|λ)) ) สังเกตที่นี่ว่าพารามิเตอร์การปรับแต่งในการปรับให้เหมาะสมนั้นถือเป็นไฮเปอร์พารามิเตอร์คงที่ในการแจกแจงก่อนหน้า หากคุณกำลังดำเนินการปรับแต่งแบบคลาสสิกด้วยพารามิเตอร์การปรับค่าคงที่สิ่งนี้จะเทียบเท่ากับการเพิ่มประสิทธิภาพแบบเบย์ด้วยพารามิเตอร์ไฮเปอร์คงที่ สำหรับ LASSO และ Ridge regression ฟังก์ชันการลงโทษและการเทียบเท่าก่อนหน้านั้นคือ
LASSO RegressionRidge Regressionπ(θ|λ)π(θ|λ)=∏k=1mLaplace(0,1λ)=∏k=1mλ2⋅exp(−λ|θk|),=∏k=1mNormal(0,12λ)=∏k=1mλ/π−−−√⋅exp(−λθ2k).
วิธีการก่อนหน้านี้ลงโทษสัมประสิทธิ์การถดถอยตามขนาดสัมบูรณ์ซึ่งเทียบเท่ากับการวาง Laplace ไว้ก่อนหน้านี้ที่ศูนย์ วิธีหลังลงโทษค่าสัมประสิทธิ์การถดถอยตามขนาดกำลังสองซึ่งเท่ากับการจัดเก็บแบบปกติก่อนตั้งอยู่ที่ศูนย์
ตอนนี้ผู้ใช้งานประจำจะปรับพารามิเตอร์การปรับให้เหมาะสมโดยการตรวจสอบข้าม มีสิ่งที่เทียบเท่ากับการทำแบบเบย์หรือไม่และมีการนำมาใช้ทั้งหมดหรือไม่?
ตราบใดที่วิธีการบ่อยสามารถวางเป็นปัญหาการเพิ่มประสิทธิภาพ (แทนที่จะพูดรวมถึงการทดสอบสมมติฐานหรืออะไรทำนองนี้) จะมีการเปรียบเทียบแบบเบย์โดยใช้การเทียบเท่าก่อนหน้านี้ เช่นเดียวกับ frequentists อาจรักษาปรับพารามิเตอร์λเป็นที่รู้จักและประเมินจากข้อมูลที่คชกรรมในทำนองเดียวกันอาจรักษา hyperparameter λเป็นที่ไม่รู้จัก ในการวิเคราะห์แบบเบย์แบบเต็มรูปแบบสิ่งนี้จะเกี่ยวข้องกับการให้ไฮเปอร์พารามิเตอร์ของตัวเองมาก่อนและหาค่าสูงสุดด้านหลังภายใต้ก่อนหน้านี้ซึ่งจะคล้ายกับการเพิ่มฟังก์ชั่นวัตถุประสงค์ต่อไปนี้:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−h(λ)=ln(Lx(θ)⋅exp(−w(θ|λ))⋅exp(−h(λ)))=ln(Lx(θ)π(θ|λ)π(λ)∫Lx(θ)π(θ|λ)π(λ)dθ)+const=lnπ(θ,λ|x)+const.
วิธีนี้ใช้ในการวิเคราะห์แบบเบย์ในกรณีที่นักวิเคราะห์ไม่สะดวกที่จะเลือกพารามิเตอร์ที่เฉพาะเจาะจงสำหรับพวกเขาก่อนหน้านี้และพยายามที่จะทำให้การกระจายก่อนหน้านี้มากขึ้นโดยถือว่าเป็นสิ่งที่ไม่รู้จักและทำให้เกิดการกระจาย (โปรดทราบว่านี่เป็นเพียงวิธีโดยนัยในการให้การกระจายมากขึ้นก่อนพารามิเตอร์ที่น่าสนใจθ )
(ความคิดเห็นจากstatslearner2ด้านล่าง) ฉันกำลังมองหาการประมาณการ MAP ที่เทียบเท่ากับตัวเลข ตัวอย่างเช่นสำหรับสันเขาโทษปรับมี Gaussian ก่อนที่จะให้ฉันประมาณการ MAP เท่ากับการประมาณการสัน ตอนนี้สำหรับสัน k-fold CV ไฮเปอร์ก่อนหน้านั้นจะให้ค่าประมาณ MAP ซึ่งคล้ายกับค่าประมาณ CV-ridge ของฉันเป็นเท่าไหร่?
Before proceeding to look at K-fold cross-validation, it is first worth noting that, mathematically, the maximum a posteriori (MAP) method is simply an optimisation of a function of the parameter θ and the data x. If you are willing to allow improper priors then the scope encapsulates any optimisation problem involving a function of these variables. Thus, any frequentist method that can be framed as a single optimisation problem of this kind has a MAP analogy, and any frequentist method that cannot be framed as a single optimisation of this kind does not have a MAP analogy.
In the above form of model, involving a penalty function with a tuning parameter, K-fold cross-validation is commonly used to estimate the tuning parameter λ. For this method you partition the data vector x into K sub-vectors x1,...,xK. For each of sub-vector k=1,...,K you fit the model with the "training" data x−k and then measure the fit of the model with the "testing" data xk. ในแต่ละแบบคุณจะได้รับการประมาณค่าพารามิเตอร์รุ่นซึ่งจะให้ข้อมูลการทดสอบซึ่งคุณสามารถนำมาเปรียบเทียบกับข้อมูลการทดสอบจริงเพื่อวัด "การสูญเสีย":
EstimatorPredictionsTesting lossθ^(x−k,λ),x^k(x−k,λ),Lk(x^k,xk|x−k,λ).
The loss measures for each of the K "folds" can then be aggregated to get an overall loss measure for the cross-validation:
L(x,λ)=∑kLk(x^k,xk|x−k,λ)
One then estimates the tuning parameter by minimising the overall loss measure:
λ^≡λ^(x)≡arg min λL(x,λ).
We can see that this is an optimisation problem, and so we now have two seperate optimisation problems (i.e., the one described in the sections above for θ, and the one described here for λ). Since the latter optimisation does not involve θ, we can combine these optimisations into a single problem, with some technicalities that I discuss below. To do this, consider the optimisation problem with objective function:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−δL(x,λ),
where δ>0 is a weighting value on the tuning-loss. As δ→∞ the weight on optimisation of the tuning-loss becomes infinite and so the optimisation problem yields the estimated tuning parameter from K-fold cross-validation (in the limit). The remaining part of the objective function is the standard objective function conditional on this estimated value of the tuning parameter. Now, unfortunately, taking δ=∞ screws up the optimisation problem, but if we take δ to be a very large (but still finite) value, we can approximate the combination of the two optimisation problems up to arbitrary accuracy.
From the above analysis we can see that it is possible to form a MAP analogy to the model-fitting and K-fold cross-validation process. This is not an exact analogy, but it is a close analogy, up to arbitrarily accuracy. It is also important to note that the MAP analogy no longer shares the same likelihood function as the original problem, since the loss function depends on the data and is thus absorbed as part of the likelihood rather than the prior. In fact, the full analogy is as follows:
Hx(θ,λ)=ℓx(θ)−w(θ|λ)−δL(x,λ)=ln(L∗x(θ,λ)π(θ,λ)∫L∗x(θ,λ)π(θ,λ)dθ)+const,
where L∗x(θ,λ)∝exp(ℓx(θ)−δL(x,λ)) and π(θ,λ)∝exp(−w(θ|λ)), with a fixed (and very large) hyper-parameter δ.
† This gives an improper prior in cases where the penalty does not correspond to the logarithm of a sigma-finite density.