เหตุใดการสุ่มมีผลดีกว่าการลดลงมากกว่าอัลกอริทึม


36

มันถูกคาดเดาว่าการสุ่มไม่ขยายพลังของอัลกอริทึมเวลาพหุนามนั่นคือถูกคาดเดาว่าจะถือ บนมืออื่น ๆ , การสุ่มดูเหมือนว่าจะมีผลแตกต่างกันมากในเวลาพหุนามลด จากผลของ Valiant และ Vazirani ที่เป็นที่รู้จักกันดีจะลดการลงโดยการลดเวลาแบบโพลิโนเมียลแบบสุ่ม ไม่น่าเป็นไปได้ที่การลดลงอาจถูกทำให้เสื่อมเสียเนื่องจากมันจะให้ผลซึ่งไม่น่าคิดP=BPPSATUSATNP=UP

ฉันสงสัยว่าอะไรเป็นสาเหตุของสถานการณ์ที่ไม่สมดุลนี้: การทำให้กระจัดกระจายดูเหมือนเป็นไปได้ค่อนข้างมากในอัลกอริธึมเวลาพหุนามความน่าจะเป็น แต่ไม่ได้อยู่ในการลดเวลาพหุนาม


3
ฉันคิดว่าเหตุผลก็คือการสุ่มนั้นช่วยได้เมื่อการคำนวณเป็นแบบอินเทอร์แอคทีฟ (เช่นการป้องกันไม่ให้ผู้เล่นคนอื่นโกง) และการลดลงถือได้ว่าเป็นการคำนวณแบบโต้ตอบที่ง่ายมาก
Kaveh

11
มีหลักฐานอะไรบ้างสำหรับ NP ที่ไม่เท่ากับ UP
Sasho Nikolov

อีกสถานการณ์ที่การสุ่มดูเหมือนจะสร้างความแตกต่างก็คือ "อัลกอริธึมค่าพยากรณ์" ตัวอย่างเช่นในขณะที่มีอัลกอริทึมแบบประมาณ 1/2 แบบสุ่มสำหรับการเพิ่มขนาด submodular ที่ไม่มีข้อ จำกัด เป็นที่ทราบกันว่าการประมาณ 1/2 นั้นเหมาะสมที่สุดและการประมาณ 1/3 นั้นคาดว่าเหมาะสมที่สุดโดยผู้เขียนอย่างน้อยหนึ่งราย
Yuval Filmus

@Yuval คุณช่วยขยายความคิดเห็นของคุณเป็นคำตอบได้ไหม ฉันสนใจที่จะอ่านคำอธิบายที่ยาวขึ้น
Kaveh

4
เป็นคำถามที่ดีมาก!
Gil Kalai

คำตอบ:


28

ก่อนอื่นให้ฉันแสดงความคิดเห็นในกรณีเฉพาะของการลด Valiant-Vazirani ฉันหวังว่าจะเป็นเช่นนี้ช่วยอธิบายสถานการณ์โดยรวมให้ดีขึ้น

การลดลงของ Valiant-Vazirani สามารถดู / กำหนดได้หลายวิธี การลดลงนี้คือ "พยายาม" เพื่อแมพอใจสูตรบูลีนกับเอกลักษณ์พอใจและ unsatisfiableไปยัง unsatisfiable F'สูตรเอาท์พุททั้งหมดจะได้รับเสมอจากการ จำกัดต่อไปดังนั้นความไม่พอใจจะได้รับการเก็บรักษาไว้เสมอ การลดลงสามารถกำหนดได้ทั้งเป็น outputting เดียวหรือเป็น outputting รายการF'_t ในกรณีหลัง "ความสำเร็จ" ในกรณีหมายถึงมีอย่างน้อยหนึ่งที่น่าพอใจFFFFFFF1,,FtFSATFiในรายการ เรียกสองตัวแปรนี้ว่า "การลดแบบซิงเกิล" และ "การลดแบบรายการ" ตามลำดับ (นี่ไม่ใช่คำศัพท์มาตรฐาน)

ประเด็นแรกที่ควรทราบคือความน่าจะเป็นที่จะประสบความสำเร็จในการลดลงของซิงเกิลนั้นค่อนข้างน้อยคือโดยที่คือจำนวนของตัวแปร ความยากลำบากในการปรับปรุงความน่าจะเป็นของความสำเร็จนี้ได้ถูกสำรวจในบทความΘ(1/n)n

"ความน่าจะเป็นของการแยกได้ของ Valiant-Vazirani หรือไม่?" โดย Dell และคณะ

http://eccc.hpi-web.de/report/2011/151/#revision1

ในการลดลิสต์ความน่าจะเป็นที่จะประสบความสำเร็จนั้นมีขนาดใหญ่พูดพร้อมกับรายการขนาดโพลี(หนึ่งสามารถทำซ้ำการลดซิงเกิลซ้ำหลาย ๆ ครั้ง)12n(n)

ตอนนี้มันไม่ได้ชัดเจนหรือเป็นธรรมชาติที่เราควรจะสามารถลดการสุ่มที่มีความน่าจะเป็นที่ประสบความสำเร็จเท่านั้น อันที่จริงไม่มีความแข็งเทียบกับผลการสุ่มให้สมมติฐานซึ่งเราสามารถทำได้ในกรณีนี้ มีความเป็นไปได้มากกว่าที่การลดรายการจะสามารถลดขนาดลงได้ (มีรายการที่ค่อนข้างใหญ่กว่า) โปรดทราบว่าสิ่งนี้ไม่ได้หมายความว่า : รายการผลลัพธ์ของเราอาจมีสูตรที่ไม่ซ้ำกันหลายอย่างและอาจมีบางอย่างที่ได้รับมอบหมายที่น่าพอใจมากมาย 1/nNP=UP

แม้ว่าเราสามารถให้การลดรายการใดก็ตามซึ่งน่าพอใจมักจะทำให้เกิดรายการซึ่งส่วนใหญ่ของนั้นเป็นที่น่าพอใจโดยเฉพาะไม่มีวิธีที่ชัดเจนว่า เป็นการลดการแยกเดี่ยวที่กำหนดไว้ ปัญหาพื้นฐานที่แท้จริงคือเราไม่ทราบว่า "การดำเนินการส่วนใหญ่โดยประมาณสำหรับสูตรที่ไม่ซ้ำใคร - ที่น่าพอใจ" นั่นคือการลดซึ่งผลลัพธ์เป็นที่น่าพอใจอย่างไม่ซ้ำใครมีความพึงพอใจเป็นเอกลักษณ์และไม่น่าพอใจหากส่วนใหญ่FF1,,FtFjR(F1,,Ft)FjFjไม่น่าพอใจ สิ่งนี้ดูเหมือนจะเป็นปรากฏการณ์ทั่วไป: การลดการส่งออกวัตถุที่ซับซ้อนกว่าอัลกอริธึมการตัดสินใจและคุณสมบัติของวัตถุเหล่านี้ยากต่อการตรวจสอบดังนั้นจึงเป็นการยากที่จะรวมวัตถุเหล่านี้จำนวนมากเข้าไว้ในวัตถุเดียวที่สืบทอดคุณสมบัติส่วนใหญ่

สำหรับกรณีของ Valiant-Vazirani ดูเหมือนว่าจะไม่น่าเป็นไปได้ภายใต้สมมติฐานการสุ่มตัวอย่างที่น่าเชื่อถือว่าเราจะได้รับนั่นคือเพื่อลดสูตรที่น่าพอใจเพื่อกำหนดสูตรที่น่าพอใจให้กับสูตรที่น่าพอใจด้วยโซลูชั่น polyนี่เกิดจากความจริงที่ว่าขั้นตอนการแยกไม่มีความคิดแม้แต่ขนาดคร่าวๆของชุดโซลูชันของสูตรได้รับNP=FewP(n)F


1
ฉันหวังว่าทุกคนที่เคยเรียนรู้เกี่ยวกับ Valiant-Vazirani จะอ่านคำตอบนี้ ความเข้าใจผิดที่ว่าการทำให้ VV แตกต่างกันนั้นน่าจะหมายถึงปัญหา NP = UP นั้นเป็นเรื่องที่น่าเสียดายและขัดขืนอย่างไม่ลดละ
Joshua Grochow

13

ในโลกของออราเคิลมันเป็นเรื่องง่ายที่จะให้ตัวอย่างที่การสุ่มทำให้เรามีพลังมากขึ้น ลองพิจารณาตัวอย่างเช่นปัญหาในการค้นหาศูนย์ของฟังก์ชันบูลีนที่สมดุล อัลกอริทึมแบบสุ่มบรรลุว่าการใช้แบบสอบถามที่มีความน่าจะเป็นความสำเร็จคงที่ในขณะที่อัลกอริทึมที่กำหนดขึ้นต้องมีอย่างน้อยแบบสอบถามO(1)n/2

นี่เป็นอีกสถานการณ์ที่สงสัยว่าการสุ่มช่วย สมมติว่าเราต้องการเพิ่มฟังก์ชัน submodular monotone ให้มากที่สุดผ่านข้อ จำกัด ของ matroid มีอัลกอริธึมที่แตกต่างกันสองแบบที่ให้การประมาณและนี่เป็นวิธีที่ดีที่สุดในแบบจำลองนี้โดยผลลัพธ์ของVondrák อัลกอริทึมทั้งสองจำเป็นต้องคำนวณฟังก์ชันของรูปแบบโดยที่เป็นการแจกแจงพร้อมการสนับสนุนแบบเอ็กซ์โปเนนเชียล การคำนวณฟังก์ชันนี้มีค่าใช้จ่ายสูงเกินไป แต่สามารถประมาณได้โดยการสุ่มตัวอย่างและผลลัพธ์นั้นเป็นอัลกอริธึมแบบสุ่ม ในทางตรงข้ามอัลกอริธึมที่เป็นที่รู้จักดีที่สุดคืออัลกอริธึมโลภให้การประมาณ11/eExXf(x)X1/2

สถานการณ์ที่คล้ายกันเกิดขึ้นในการเพิ่มขนาด submodular ที่ไม่ จำกัด เงื่อนไข (ในที่นี้ฟังก์ชั่นไม่จำเป็นต้องมีโทนเสียงเดียว) อัลกอริธึมการพัฒนาล่าสุดให้การประมาณดีที่สุดแต่รุ่นที่กำหนดได้นั้นให้การประมาณเพียงนี่คือการสุ่มปรากฏตัวในลักษณะเดียวกับในกรณีเดียวหรือ (ในรุ่นที่แตกต่างกันของอัลกอริทึม) โดยการสุ่มเลือกสองสามทาง1/21/3

หนึ่งในผู้เขียนของการคาดเดากระดาษหลังที่เป็นที่ดีที่สุดที่กำหนดขั้นตอนวิธีการจะประสบความสำเร็จและที่เราสามารถทำได้ในทำนองเดียวกันการคาดเดาที่เป็นที่ดีที่สุดที่สามารถทำได้ในปัญหาที่เกิดขึ้นก่อนหน้านี้ หากการคาดเดาเหล่านี้เป็นจริงแล้วนี่เป็นสถานการณ์ที่เป็นธรรมชาติมากซึ่งการสุ่มช่วยพิสูจน์ได้1/31/2

เมื่อเร็ว ๆ นี้ Dobzinski และVondrákแสดงให้เห็นถึงวิธีการแปลงค่าขอบเขตล่างของ Oracle (สำหรับอัลกอริธึมแบบสุ่ม) ให้เป็นผลความแข็งโดยมีเงื่อนไขใน NP แตกต่างจาก RP (ส่วนผสมสำคัญคือการถอดรหัสรายการ) เราควรพูดถึงว่าการเปลี่ยนแปลงนั้นอาศัยวิธีการเฉพาะที่ใช้ในการพิสูจน์ขอบเขตของ oracle ที่ต่ำกว่า บางทีมันอาจเป็นความจริงที่ค่าที่กำหนดได้ของออราเคิลที่ต่ำกว่าขอบเขตนั้นแปลเป็นผลให้เกิดความแข็ง


ฉันสงสัยว่าปัญหาการประมาณปริมาณอยู่ภายใต้โมเดล "oracle มูลค่า" หรือไม่ ในโมเดลนั้นคุณจะได้รับออราเคิลความเป็นสมาชิกสำหรับวัตถุนูนที่มีปริมาณที่คุณกำลังประเมินและเป็นที่รู้กันดีว่านี่ไม่สามารถประมาณค่าได้อย่างแม่นยำแม้กระทั่งปัจจัยเอ็กซ์โพเนนเชียล แต่สามารถประมาณได้ดี
Suresh Venkat

12

เหตุผลหนึ่งว่าทำไมมันถึงดูแปลกสำหรับคุณเราคิดว่ามีพลังชัดเจน (หรือคาดเดา) ในการลดการสุ่มจากถึงมากกว่าที่เทียบเคียงได้จากถึงเป็นเพราะคุณอาจถูกคิดแบบสุ่มว่าเป็นสิ่งที่ทรงพลัง (หรือไม่ทรงพลัง) อย่างอิสระจากสิ่งที่ "กลไก" คุณเพิ่มเข้าไป (ถ้าเราวาดภาพความซับซ้อนเหล่านี้เป็นคลาสที่เกิดจากโมเดลเครื่อง) .NPUPBPPP

และยังมีการลดพลังงานต่างกัน ในความเป็นจริงทรัพยากรการคำนวณเช่นการสุ่มไม่จำเป็นต้องมีจำนวนคงที่ของกำลังการคำนวณซึ่งเป็น "สำคัญ" หรือ "ไม่สำคัญ"

เราอาจพิจารณาคลาสความซับซ้อนที่ต่ำสำหรับตัวเอง - ตัวอย่างเช่น , , , ,หรือ - จะคล้อยตามรูปแบบของเครื่องจักรที่เครื่องจักรมีสถานะที่กำหนดไว้อย่างดีว่าคุณสามารถถามคำถามได้ทุกเวลาในขณะที่ยังอนุญาตให้การคำนวณดำเนินต่อไปนอกเหนือจากคำถามที่คุณถาม: ในสาระสำคัญ ตรงที่เครื่องสามารถจำลองอัลกอริทึมหนึ่งเป็นรูทีนย่อยสำหรับอีก เครื่องจักรที่ทำการคำนวณอาจไม่สมจริงโดยเฉพาะอย่างยิ่งถ้าเรา จำกัด ตัวเองให้มีข้อ จำกัด ในทางปฏิบัติเกี่ยวกับทรัพยากร ( เช่นLPBPPBQPPPSPACE ทางกายภาพและสามารถผลิตคำตอบในเวลาพหุนามระดับต่ำสำหรับปัญหาที่น่าสนใจ) แต่ไม่เหมือนคลาสเช่น - ซึ่งเราไม่ทราบว่าเครื่องจักร nondeterministic สามารถสร้างคำตอบสำหรับปัญหาอื่นในและใช้คำตอบในทางใดทางหนึ่งนอกเหนือจากการลดความจริงที่เชื่อมโยงและแยกออกจากกัน - จินตนาการถึงชั้นเรียนดังกล่าวว่าเป็นตัวเป็นตนโดยเครื่องจักรที่มีสถานะที่กำหนดไว้อย่างดีซึ่งเราสามารถสอบถามได้ .NPNP

ถ้าเราเข้ารับตำแหน่งนี้เราสามารถถามว่าจะเกิดอะไรขึ้นถ้าเราจัดหาแบบจำลองการคำนวณเหล่านี้ด้วยสิ่งอำนวยความสะดวกพิเศษเช่นการสุ่มหรือการไม่เชื่อฟัง (สิ่งอำนวยความสะดวกพิเศษเหล่านี้ไม่จำเป็นต้องรักษาคุณสมบัติของการตีความโดยโมเดลเครื่องจักรโดยเฉพาะอย่างยิ่งในกรณีของ nondeterminism แต่จะเพิ่มคลาส 'ใหม่' ให้) ถ้าสิ่งอำนวยความสะดวกพิเศษนี้ให้พลังงานมากกว่ารุ่น กับคลาสสิ่งนี้มีผลเทียบเท่ากับการพูดว่ามีการลดลงจากถึงโดยใช้สิ่งอำนวยความสะดวกนั้นเช่น  การลดแบบสุ่มในกรณีของการสุ่มMCCM

เหตุผลที่ว่าทำไมฉันอธิบายนี้ในแง่ของการเรียนที่อยู่ในระดับต่ำสำหรับตัวเองคือว่าถ้าเราใช้อย่างจริงจังว่าพวกเขาเป็น "รูปแบบที่เป็นไปได้ของการคำนวณในอีกโลกหนึ่ง" คำถามของคุณเกี่ยวกับการลดลงสอดคล้องสุ่มความจริงที่ว่ามันก็ดูเหมือนว่าการสุ่ม เพิ่มขึ้นอย่างรวดเร็วอำนาจของบางรุ่น แต่ไม่คนอื่น ๆ

แทนที่การสุ่มลดจากถึงเราสามารถสังเกตได้ว่ามีการลดการสุ่มจากไปยังคลาส - ซึ่ง จะได้รับถ้าคุณเพิ่มขอบเขตการสุ่มข้อผิดพลาดใน - โดยทฤษฎีบทของ Toda และคำถามของคุณสามารถถูกวางเป็น: ทำไมสิ่งนี้เกิดขึ้น ? ทำไมบางเครื่องควรได้รับมากจากการสุ่มและอื่น ๆ น้อยมาก? ในกรณีของดูเหมือนว่า modulo-2 nondeterminism ได้นิยามไว้ในนิยามของNPUPPHBPPPPHBPPP(โดยหลักแล้วตัวนับปริมาณโมดูโล 2) เร่งการสุ่มที่เกี่ยวข้องกับข้อผิดพลาดที่ถูกล้อมรอบ (โดยหลักแล้วคือตัวนับจำนวนที่มีช่องว่างสัญญา) เพื่อให้เราเทียบเท่ากับลำดับชั้นที่ไม่มีขอบเขตทั้งหมดของการดำรงอยู่และปริมาณสากล แต่นี่ไม่ได้หมายความว่าเราคิดว่านั้นมีประสิทธิภาพเทียบเท่ากับลำดับชั้นพหุนามทั้งหมดใช่ไหม? ทั้งทรัพยากรของการสุ่มตัวอย่างขอบเขตข้อผิดพลาดหรือการนับแบบโมดูโล -2 นั้นไม่น่าเชื่อว่าจะทรงพลัง สิ่งที่เราสังเกตก็คือเมื่อรวมกันแล้วเครื่องวัดปริมาณทั้งสองนี้มีประสิทธิภาพP

นอกจากนี้ยังมีคำถามว่าเราสามารถพูดได้ว่าการสุ่มนั้นอ่อนแอในแง่สมบูรณ์หรือไม่เปรียบเทียบกับ nondeterminism: หากการสุ่มนั้นอ่อนแอมากและถ้าเรามั่นใจว่าทำไม เราสามารถผูกในลำดับชั้นพหุนามใช้สองระดับโดยไม่กำหนดหรือไม่ แต่นี่อาจเป็นผลที่ในขณะที่เราสงสัยว่าการเพิ่มแบบสุ่มในการคำนวณพหุนามแบบง่ายไม่ได้ให้พลังมากนักเราไม่มีความคิดว่าจะจำลองพลังที่เพิ่มขึ้นโดยใช้เพียงเล็กน้อยของการเคลื่อนที่แบบไม่เกี่ยวข้อง ในและ{} (แน่นอนมันยากที่จะพิสูจน์BPP=PBPPΣ2pΔ2pNPcoNPสิ่งที่ไม่น่าสนใจในทฤษฎีความซับซ้อน แต่ที่อีกครั้งเป็นเพียงคำว่าประเภทที่แตกต่างกันเหล่านี้ของทรัพยากรที่มียากที่จะเปรียบเทียบในระดับ!)

ไม่มีข้อโต้แย้งที่แข็งแกร่งที่ฉันสามารถให้เพื่อป้องกันว่าทำไมเรื่องนี้ควรจะเป็นกรณีอื่นนอกเหนือจากการสังเกตว่าจนถึงขณะนี้ก็เป็นเพียงกรณี; และถ้าคุณคิดว่าไม่ยุบจะแตกต่างจากและคุณควรพิจารณาความเป็นไปได้ที่สิ่งอำนวยความสะดวกต่างๆ เช่นการสุ่มและ nondeterminism สามารถมีอำนาจที่ไม่สามารถเทียบเคียงกับคนอื่นได้ง่ายและสามารถประสานหรือกระตุ้นให้กันและกันเพื่อให้พลังการคำนวณที่ไม่มีใครมีความน่าเชื่อถือด้วยตนเอง สมมติฐานที่ไม่ใช่ว่า "การสุ่มไม่มีอำนาจ" แต่การสุ่มนั้นเพียงอย่างเดียวPHPBPPPBPP=P(หรือมากกว่านั้นเสริมด้วยการคำนวณเวลาแบบพหุนามเท่านั้นและจัดให้กับแบบจำลองการคำนวณที่กำหนดอย่างอื่น) ไม่มีประสิทธิภาพ แต่นี่ไม่ได้หมายความว่าจะไม่มีอำนาจในการสุ่มซึ่งอาจถูกเร่งโดยทรัพยากรการคำนวณอื่น ๆ


"นอกเหนือจากการลดความจริงตารางที่ไม่ต่อเนื่อง -" แล้วการลดความจริงโมโนโทนอื่น ๆ เช่นการลดตารางความจริงร่วมกันคืออะไร?

@RickyDemer: ค่อนข้างถูกต้อง ในขณะที่ฉันเขียนสิ่งนี้ฉันกำลังทำงานกับคลาส nondeterministic บางอย่างที่เกี่ยวข้องกับNLซึ่งการปิดภายใต้ dtt- และ ctt-reduction ทั้งคู่จะมีการปิดโดยนัยภายใต้การเติมเต็มดังนั้นฉันจึงไม่พูดถึง ctt; แต่สิ่งนี้ไม่ชัดเจนสำหรับNLหรือNPด้วยตนเอง ฉันจะแก้ไขคำตอบของฉัน
Niel de Beaudrap

@NieldeBeaudrap นี่เป็นคำตอบที่ดีมากเช่นกัน
Tayfun จ่าย
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.