ความหมายและการบรรจบกันของกำลังสองน้อยที่สุดที่ได้รับคืน


16

ฉันได้ใช้กำลังสองน้อยที่สุดซ้ำอย่างน้อยกำลังสอง (IRLS) เพื่อย่อฟังก์ชันของแบบฟอร์มต่อไปนี้

J(m)=i=1Nρ(|xim|)

โดยที่Nคือจำนวนอินสแตนซ์ของxiR , mRคือค่าประมาณที่ฉันต้องการและρเป็นฟังก์ชันการปรับค่าที่เหมาะสม สมมติว่ามันเป็นนูน (แต่ไม่จำเป็นต้องเข้มงวด) และเปลี่ยนแปลงได้ในตอนนี้ เป็นตัวอย่างที่ดีของดังกล่าวρเป็นฟังก์ชั่นการสูญเสีย Huber

สิ่งที่ฉันทำคือแยกความแตกต่างJ(m)เทียบกับm (และจัดการ) ที่จะได้รับ

dJdm=i=1Nρ(|xim|)|xim|(xim)

และแก้ปัญหานี้ซ้ำ ๆ โดยการตั้งค่าให้เท่ากับ 0 และกำหนดน้ำหนักที่การวนซ้ำkเป็นwi(k)=ρ(|xim(k)|)|xim(k)|(หมายเหตุว่าภาวะเอกฐานการรับรู้ที่xi=m(k)คือจริงๆเอกพจน์ที่ถอดออกได้ในทุกρ's ฉันอาจจะเกี่ยวกับการดูแล) จากนั้นฉันก็จะได้

i=1Nwi(k)(xim(k+1))=0

และฉันแก้ปัญหาเพื่อให้ได้m(k+1)=i=1Nwi(k)xii=1Nwi(k) )

ฉันทำซ้ำอัลกอริธึมจุดคงที่นี้จนกระทั่ง "ลู่เข้า" ฉันจะทราบว่าถ้าคุณไปถึงจุดคงที่คุณจะดีที่สุดเนื่องจากอนุพันธ์ของคุณเป็น 0 และมันเป็นฟังก์ชันนูน

ฉันมีคำถามสองข้อเกี่ยวกับขั้นตอนนี้:

  1. นี่เป็นอัลกอริทึม IRLS มาตรฐานหรือไม่ หลังจากอ่านบทความหลายเรื่องในหัวข้อ (และพวกเขากระจัดกระจายและคลุมเครือเกี่ยวกับสิ่งที่เป็น IRLS) นี่คือคำจำกัดความที่สอดคล้องกันที่สุดของอัลกอริทึมที่ฉันสามารถหาได้ ฉันสามารถโพสต์เอกสารได้ถ้าคนต้องการ แต่จริงๆแล้วฉันไม่ต้องการมีอคติกับใครที่นี่ แน่นอนคุณสามารถสรุปเทคนิคพื้นฐานนี้ให้กับปัญหาประเภทอื่น ๆ ที่เกี่ยวข้องกับเวกเตอร์และข้อโต้แย้งอื่นที่ไม่ใช่| x i - m ( k ) | การกำหนดอาร์กิวเมนต์เป็นบรรทัดฐานของฟังก์ชันเลียนแบบพารามิเตอร์ของคุณ ความช่วยเหลือหรือความเข้าใจใด ๆ จะดีมากในเรื่องนี้xi|xim(k)|
  2. การบรรจบกันดูเหมือนจะใช้งานได้จริง แต่ฉันมีข้อกังวลเล็กน้อยเกี่ยวกับเรื่องนี้ ฉันยังไม่เห็นหลักฐานของมัน หลังจากการจำลอง Matlab ง่าย ๆ ฉันเห็นว่าการวนซ้ำของสิ่งนี้ไม่ใช่การทำแผนที่การหดตัว (ฉันสร้างอินสแตนซ์สุ่มสองรายการของและการคำนวณ| m 1 ( k + 1 ) - m 2 ( k + 1 ) |mและเห็นว่านี่เป็นครั้งคราวมากกว่า 1) การแมปที่กำหนดโดยการวนซ้ำหลายครั้งติดต่อกันนั้นไม่ได้เป็นการจับคู่การหดตัวอย่างเคร่งครัด แต่ความน่าจะเป็นของค่าคงที่ Lipschitz ที่สูงกว่า 1 จะต่ำมาก ดังนั้นจึงมีความคิดเกี่ยวกับความน่าจะเป็นของการหดแผนที่? เครื่องจักรที่ฉันใช้เพื่อพิสูจน์ว่าสิ่งนี้มาบรรจบกันคืออะไร? มันรวมกันหรือไม่|m1(k+1)m2(k+1)||m1(k)m2(k)|

คำแนะนำใด ๆ ที่เป็นประโยชน์

แก้ไข: ฉันชอบกระดาษบน IRLS สำหรับการตรวจจับการฟื้นตัว / อัดแบบเบาบางโดย Daubechies และคณะ 2551 "ซ้ำอย่างน้อยที่สุดถ่วงน้ำหนักกำลังสองน้อยที่สุดสำหรับการกู้คืนอย่างกระจัดกระจาย" บน arXiv แต่ดูเหมือนว่าจะมุ่งเน้นไปที่น้ำหนักของปัญหาที่ไม่ได้เกิดจาก กรณีของฉันง่ายกว่ามาก


การดูหน้า wiki บนIRWLSฉันต่อสู้กับความแตกต่างระหว่างขั้นตอนที่คุณอธิบายและ IRWLS (พวกเขาใช้|yixxiββ|2 as their particular ρ function). Can you explain in what ways you think the algorithm you propose is different from IRWLS?
user603

I never stated that it was different, and if I implied it, I didn't mean to.
Chris A.

คำตอบ:


10

สำหรับคำถามแรกของคุณคุณควรกำหนด "มาตรฐาน" หรือรับทราบว่ามีการสร้าง "แบบจำลองมาตรฐาน" เป็นที่ยอมรับ ตามความคิดเห็นที่ระบุไว้อย่างน้อยก็ปรากฏว่าวิธีที่คุณใช้ IRWLS นั้นค่อนข้างมาตรฐาน

สำหรับคำถามที่สองของคุณ "การทำแผนที่ความน่าจะเป็นแบบหดตัว" สามารถเชื่อมโยงได้ (อย่างไม่เป็นทางการ) กับการบรรจบกันของ จากสิ่งที่ฉันอ่านมีวรรณคดีขนาดใหญ่ในวิชาวิศวกรรมเป็นหลัก ในสาขาเศรษฐศาสตร์เราใช้นิดหน่อยโดยเฉพาะงานน้ำเชื้อของ Lennart Ljung - บทความแรกคือLjung (1977) - ซึ่งแสดงให้เห็นว่าการลู่เข้า (หรือไม่) ของอัลกอริธึมแบบสุ่มซ้ำสามารถถูกกำหนดโดยเสถียรภาพ (หรือ ไม่) ของสมการเชิงอนุพันธ์สามัญที่เกี่ยวข้อง

(สิ่งต่อไปนี้ได้รับการทำงานซ้ำหลังจากการสนทนาที่มีผลกับ OP ในความคิดเห็น)

การลู่เข้า

I will use as reference Saber Elaydi "An Introduction to Difference Equations", 2005, 3d ed. The analysis is conditional on some given data sample, so the xs are treated as fixed.

The first-order condition for the minimization of the objective function, viewed as a recursive function in m,

m(k+1)=i=1Nvi[m(k)]xi,vi[m(k)]wi[m(k)]i=1Nwi[m(k)][1]

has a fixed point (the argmin of the objective function). By Theorem 1.13 pp 27-28 of Elaydi, if the first derivative with respect to m of the RHS of [1], evaluated at the fixed point m, denote it A(m), is smaller than unity in absolute value, then m is asymptotically stable (AS). More over by Theorem 4.3 p.179 we have that this also implies that the fixed point is uniformly AS (UAS).
"Asymptotically stable" means that for some range of values around the fixed point, a neighborhood (m±γ), not necessarily small in size, the fixed point is attractive , and so if the algorithm gives values in this neighborhood, it will converge. The property being "uniform", means that the boundary of this neighborhood, and hence its size, is independent of the initial value of the algorithm. The fixed point becomes globally UAS, if γ=.
So in our case, if we prove that

|A(m)||i=1Nvi(m)mxi|<1[2]

we have proven the UAS property, but without global convergence. Then we can either try to establish that the neighborhood of attraction is in fact the whole extended real numbers, or, that the specific starting value the OP uses as mentioned in the comments (and it is standard in IRLS methodology), i.e. the sample mean of the x's, x¯, always belongs to the neighborhood of attraction of the fixed point.

We calculate the derivative

vi(m)m=wi(m)mi=1Nwi(m)wi(m)i=1Nwi(m)m(i=1Nwi(m))2

=1i=1Nwi(m)[wi(m)mvi(m)i=1Nwi(m)m]
Then

A(m)=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)i=1Nvi(m)xi]

=1i=1Nwi(m)[i=1Nwi(m)mxi(i=1Nwi(m)m)m]

and

|A(m)|<1|i=1Nwi(m)m(xim)|<|i=1Nwi(m)|[3]

we have

wi(m)m=ρ(|xim|)xim|xim||xim|+xim|xim|ρ(|xim|)|xim|2=xim|xim|3ρ(|xim|)ρ(|xim|)xim|xim|2=xim|xim|2[ρ(|xim|)|xim|ρ(|xim|)]=xim|xim|2[wi(m)ρ(|xim|)]

Inserting this into [3] we have

|i=1Nxim|xim|2[wi(m)ρ(|xim|)](xim)|<|i=1Nwi(m)|

|i=1Nwi(m)i=1Nρ(|xim|)|<|i=1Nwi(m)|[4]

This is the condition that must be satisfied for the fixed point to be UAS. Since in our case the penalty function is convex, the sums involved are positive. So condition [4] is equivalent to

i=1Nρ(|xim|)<2i=1Nwi(m)[5]

If ρ(|xim|) is Hubert's loss function, then we have a quadratic (q) and a linear (l) branch,

ρ(|xim|)={(1/2)|xim|2|xim|δδ(|xim|δ/2)|xim|>δ

and

ρ(|xim|)={|xim||xim|δδ|xim|>δ

ρ(|xim|)={1|xim|δ0|xim|>δ

{wi,q(m)=1|xim|δwi,l(m)=δ|xim|<1|xim|>δ

Since we do not know how many of the |xim|'s place us in the quadratic branch and how many in the linear, we decompose condition [5] as (Nq+Nl=N)

i=1Nqρq+i=1Nlρl<2[i=1Nqwi,q+i=1Nlwi,l]

Nq+0<2[Nq+i=1Nlwi,l]0<Nq+2i=1Nlwi,l

which holds. So for the Huber loss function the fixed point of the algorithm is uniformly asymptotically stable, irrespective of the x's. We note that the first derivative is smaller than unity in absolute value for any m, not just the fixed point.

What we should do now is either prove that the UAS property is also global, or that, if m(0)=x¯ then m(0) belongs to the neighborhood of attraction of m.


Thanks for the response. Give me some time to analyze this answer.
Chris A.

Certainly. After all, the question waited 20 months.
Alecos Papadopoulos

Yeah, I was reminded of the problem and decided to put up a bounty. :)
Chris A.

Lucky me. I wasn't there 20 months ago - I would have taken up this question, bounty or not.
Alecos Papadopoulos

Thanks so much for this response. It's looking like, so far, that you've earned the bounty. BTW, your indexing on the derivative of vi w.r.t m is notationally weird. Couldn't the summations on the second line of this use another variable, such as j?
Chris A.
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.