หลักการ Minimax ของ Yao ในอัลกอริทึม Monte Carlo


22

หลักการ Minimax ของ Yao ที่โด่งดังกล่าวถึงความสัมพันธ์ระหว่างความซับซ้อนในการแจกแจงและความซับซ้อนแบบสุ่ม Letจะมีปัญหากับขอบเขตของปัจจัยการผลิตและชุด จำกัดขั้นตอนวิธีการที่กำหนดในการแก้Pนอกจากนี้ยังให้หมายถึงการกระจายการป้อนข้อมูลและให้หมายถึงการกระจายความน่าจะเป็นใน{A} จากนั้นหลักการฯ PXAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
หลักฐานนี้โดยตรงจากทฤษฎีบท minimax ของ von Neumann สำหรับเกม zero-sum

ส่วนใหญ่เป็นข้อเสนอหลักการยาวกับลาสเวกัขั้นตอนวิธีการเพียง แต่มันสามารถทั่วไปที่จะอัลกอริทึม Monte Carloดังต่อไปนี้ ที่cost_ \ epsilon (\ cdot \ cdot)หมายถึงค่าใช้จ่ายของอัลกอริทึมที่ Monte Carlo errs ความน่าจะเป็นที่ที่สุด\ epsilon

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
costϵ(,)ϵ

ในบทความต้นฉบับของเหยาความสัมพันธ์ของอัลกอริธึม Monte Carlo นั้นถูกกำหนดไว้ในทฤษฎีบท 3 โดยไม่มีข้อพิสูจน์ คำใบ้ใด ๆ ที่พิสูจน์ได้?

คำตอบ:


6

นี่เป็นเพียงความคิดเห็นเพิ่มเติมเกี่ยวกับคำตอบของมาร์กอสโดยใช้สัญลักษณ์ของเขา ฉันไม่สามารถติดตามรายละเอียดการโต้แย้งของเขาได้และสิ่งที่อยู่ด้านล่างนี้ค่อนข้างสั้นและง่าย

โดยค่าเฉลี่ย

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

ความจริงข้างต้นและความไม่เท่าเทียมกันของมาร์คอฟเปรย 2Aβ(2λ)q(A)1/2

ดังนั้นเราจึงได้รับ:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

ฉันจะลองทำสิ่งนี้ ฉันจะใช้สัญลักษณ์ดั้งเดิมของเหยา วิธีนี้จะง่ายกว่าที่จะเปรียบเทียบกับกระดาษและคำจำกัดความของเขา

ให้เป็นชุด จำกัด ของอินพุตและให้A 0เป็นชุด จำกัด ของอัลกอริทึมกำหนดที่อาจล้มเหลวในการให้คำตอบที่ถูกต้องสำหรับอินพุตบางส่วน อนุญาตด้วยϵ ( A , x ) = 0ถ้าAให้คำตอบที่ถูกต้องสำหรับx , และϵ ( A , x ) = 1 เป็นอย่างอื่น แสดงด้วยr ( A , x )จำนวนการสืบค้นที่ทำโดยAบนอินพุตxหรือเทียบเท่าความลึกของAIA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxAต้นไม้ตัดสินใจของ

ค่าใช้จ่ายเฉลี่ย:ได้รับการกระจายความน่าจะเป็นบนผมที่ค่าใช้จ่ายเฉลี่ยของอัลกอริทึม0คือC ( , d ) = Σ x I d ( x ) R ( , x )dIAA0C(A,d)=xId(x)r(A,x)

กระจายความซับซ้อน: Let ] สำหรับการกระจายใด ๆdปัจจัยให้β ( λ )เป็นส่วนหนึ่งของ0กำหนดโดยβ ( λ ) = { : 0 , Σ x I d ( x ) ε ( , x ) λ }λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}. ความซับซ้อนกระจายด้วยข้อผิดพลาดสำหรับการคำนวณปัญหาPถูกกำหนดให้เป็นF 1 , λ ( P ) = สูงสุดdนาทีบีตา( λ ) C ( , d )λPF1,λ(P)=maxdminAβ(λ)C(A,d)

-tolerance:λกระจายในครอบครัว 0เป็น λ -tolerant ถ้าสูงสุดx ฉัน Σ 0 Q ( ) ε ( , x ) λqA0λmaxxIAA0q(A)ϵ(A,x)λ

ค่าใช้จ่ายที่คาดว่าจะมีขั้นตอนวิธีการสุ่มให้Qจะเป็นแจกแจงความน่าจะเป็นที่λ -tolerant บน0 ค่าใช้จ่ายคาดว่าของRสำหรับการป้อนข้อมูลให้xเป็นE ( R , x ) = Σ 0 Q ( ) R ( , x )RqλA0RxE(R,x)=AA0q(A)r(A,x)

สุ่มซับซ้อน: Let ] ความซับซ้อนด้วยข้อผิดพลาดแบบสุ่มλคือF 2 , λ = นาทีR สูงสุดx ฉัน E ( R , x )λ[0,1]λF2,λ=minRmaxxIE(R,x)

ตอนนี้เราพร้อมที่จะทำธุรกิจ สิ่งที่เราต้องการพิสูจน์จะได้รับการแจกแจงในอินพุตและอัลกอริทึมแบบสุ่มR (เช่นการกระจายqบนA 0 )dRqA0

หลักการ Minimax ของ Yao สำหรับ Montecarlo Algorithms สำหรับλ[0,1/2]

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

ฉันจะทำตามวิธีการที่กำหนดโดยFich, Meyer auf der Heide, Ragde และ Wigderson (ดูบทแทรก 4) วิธีการของพวกเขาไม่ได้ให้ลักษณะเฉพาะสำหรับอัลกอริทึมของ Las Vegas (เฉพาะขอบเขตล่าง) แต่ก็เพียงพอสำหรับวัตถุประสงค์ของเรา จากหลักฐานของพวกเขามันง่ายที่จะเห็นว่าสำหรับใด ๆและฉันA0I

เรียกร้อง 1. )maxxIE(R,x)minAA0C(A,d)

เพื่อให้ได้ตัวเลขที่ถูกต้องเราจะทำสิ่งที่คล้ายกัน ระบุว่าการกระจายความน่าได้รับจากการสุ่มอัลกอริทึมRคือλ -tolerant บน0เรามี λqRλA0

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
If we replace the family A0 with β(2λ) we see that

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

where the second inequality follows because β(2λ)A0, and the last inequality is given by the definition of β(2λ) where the summation divided by 2 cannot be greater than λ. Hence,

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

By noting that ϵ maps to {0,1} and r maps to N and Claim 1 above, now we can safely replace the function ϵ in the inequality above by r(A,x) to obtain the desired inequality.


Is there a short explanation for where the factor of 2 comes from?
Robin Kothari

in short, it comes from the definition of β(2λ). The summation in the definition divided by 2 is at most λ.
Marcos Villagra

something seems strange to me. by definition, maxAβ(2λ)){12xId(x),ϵ(A,x)}λ so why the min?
Sasho Nikolov

and i don't understand the last sentence. how did you make an entire argument about ϵ and then replaced it with r?
Sasho Nikolov

regarding your first question, I added more details.
Marcos Villagra
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.