เหตุใดจึงมีผู้สมัครที่เป็นธรรมชาติจำนวนน้อยสำหรับสถานะ NP ระดับกลาง


29

ทฤษฎีบทของ Ladner เป็นที่รู้จักกันดีว่าหากPNPดังนั้นจะมีปัญหาNP -intermediate ( NPI ) ที่ไม่สิ้นสุดจำนวนมาก นอกจากนี้ยังมีผู้สมัครที่เป็นธรรมชาติสำหรับสถานะนี้เช่นกราฟมอร์ฟและจำนวนของผู้อื่นให้ดูที่ ปัญหาระหว่าง P และ NPC แต่ส่วนใหญ่อยู่ในกลุ่มที่รู้จักกันnatural NP -problems เป็นที่รู้จักเป็นอย่างใดอย่างหนึ่งในPหรือNPC C เพียงเศษเสี้ยวเล็ก ๆ ของพวกเขายังคงเป็นผู้สมัครสำหรับNPI. ในคำอื่น ๆ ถ้าเราสุ่มเลือกธรรมชาติ -problem ในหมู่คนที่รู้จักเรามีโอกาสน้อยมากที่จะเลือกN P ฉันผู้สมัคร มีคำอธิบายใด ๆ สำหรับปรากฏการณ์นี้หรือไม่?NPNPI

ฉันสามารถคิดคำอธิบายที่เป็นไปได้ 3 ข้อขึ้นด้านปรัชญามากขึ้น:

  1. สาเหตุของการมีผู้สมัครสอบเป็นธรรมชาติเพียงเล็กน้อยก็คือ N P Iในที่สุดจะกลายเป็นว่างเปล่า ฉันรู้ว่านี่หมายถึงP = N Pดังนั้นจึงไม่น่าเป็นไปได้มาก ถึงกระนั้นก็ตามเรายังคงสามารถโต้แย้งได้ (แม้ว่าฉันไม่ใช่คนใดคนหนึ่งของพวกเขา) ว่าปัญหาความหายากของN P Iตามธรรมชาติคือการสังเกตเชิงประจักษ์ที่ดูเหมือนจะสนับสนุนP = N Pซึ่งตรงกันข้ามกับการสังเกตอื่น ๆ ส่วนใหญ่NPINPIP=NPNPIP=NP

  2. ความเล็กของ "natural- NPI " แสดงให้เห็นถึงการเปลี่ยนแปลงเฟสที่คมชัดระหว่างปัญหาที่ง่ายและยาก เห็นได้ชัดว่าปัญหาอัลกอริทึมตามธรรมชาติที่มีความหมายมีพฤติกรรมในแบบที่พวกเขามีแนวโน้มว่าจะง่ายหรือยากการเปลี่ยนแปลงนั้นแคบ (แต่ยังคงมีอยู่)

  3. อาร์กิวเมนต์ที่ 2 สามารถนำไปมาก: ปัญหาในที่สุดทั้งหมดใน "natural- " จะถูกใส่ลงไปในPN P CยังPN Pดังนั้นN P ฉัน นี่จะหมายความว่าปัญหาที่เหลืออยู่ทั้งหมดในN P INPIPNPCPNPNPINPIคือ "ผิดธรรมชาติ" (วางแผนโดยไม่มีความหมายในชีวิตจริง) การตีความสิ่งนี้อาจเป็นได้ว่าปัญหาทางธรรมชาตินั้นง่ายหรือยาก การเปลี่ยนแปลงเป็นเพียงการสร้างเชิงตรรกะโดยไม่มีความหมาย "ทางกายภาพ" นี่ค่อนข้างชวนให้นึกถึงกรณีของตัวเลขที่ไม่มีเหตุผลซึ่งเป็นเหตุผลอย่างสมบูรณ์ แต่ไม่ได้เกิดขึ้นในขณะที่ค่าที่วัดได้ของปริมาณทางกายภาพใด ๆ เช่นนี้พวกเขาไม่ได้มาจากความเป็นจริงทางกายภาพพวกเขาค่อนข้างจะอยู่ใน "การปิดทางตรรกะ" ของความเป็นจริงนั้น

คำอธิบายใดที่คุณชอบที่สุดหรือคุณสามารถแนะนำอีกหนึ่งคำ


13
อืมความยาวของเส้นทแยงมุมของสี่เหลี่ยมจัตุรัส 1 ซม. x 1 ซม. เป็นจำนวนอตรรกยะ ...
Joshua Grochow

4
คุณอาจพบว่ามันน่าสนใจว่าในทฤษฎีของการวัดที่ จำกัด ขอบเขตทรัพยากรการรวบรวมชุด NP-complete มี p-measure 0 หรืออีกนัยหนึ่งชุด p-random ใน NP ไม่สมบูรณ์ NP อันที่จริงนี่เป็นความจริงของพหุนามเวลาเดียวหลายระดับ (การวัดการรวบรวมชุด NP ทั้งหมดเป็นคำถามเปิด: ถ้าไม่ใช่ศูนย์หรือไม่สามารถวัดได้ดังนั้น )PNP
Joshua Grochow

7
คำตอบส่วนใหญ่เกี่ยวข้องกับปัญหาที่เราพบว่า "ธรรมชาติ" ซึ่งเป็นคำถามเชิงปรัชญา ยังไม่ชัดเจนนักว่าข้อสมมติฐานมีปัญหาอยู่หลายปัญหาที่เกิดจากการเข้ารหัสมีความซับซ้อนระดับกลาง ในที่สุดสิ่งที่คุณพูดเกี่ยวกับจำนวนอตรรกยะไร้สาระ
Sasho Nikolov

คำตอบ:


26

ตามที่คนอื่น ๆ ได้ชี้ให้เห็นก็เป็นที่ถกเถียงกันอยู่ว่าสิ่งที่คุณพยายามอธิบายนั้นมีขอบเขตเพียงใด ใคร ๆ ก็สามารถโต้แย้งได้ว่าในยุค 60 และ 70 นักวิทยาศาสตร์คอมพิวเตอร์เชิงทฤษฎีมีความสนใจในปัญหาประเภทต่างๆมากกว่าที่จะเป็น P หรืออื่น ๆ ที่ทำให้เสร็จสมบูรณ์ วันนี้เนื่องจากการเพิ่มขึ้นของความซับซ้อน - การเข้ารหัสเชิงทฤษฎี, การคำนวณควอนตัม, โปรย ฯลฯ - - รวมทั้งความจริงง่ายๆที่ NP-ครบถ้วนกลายเป็นที่เข้าใจกันมากขึ้น - เรากลายเป็นที่สนใจมากขึ้น ประเภทของปัญหาที่กลายเป็นปัญหาระดับกลาง

ถึงกระนั้นใคร ๆ ก็สามารถถาม: เท่าที่สิ่งนั้นเป็นจริง --- นั่นคือเท่าที่การค้นหาตามธรรมชาติและปัญหาการหาค่าเหมาะที่สุดจำนวนมาก "snap" จนกลายเป็นปัญหาที่สมบูรณ์หรืออย่างอื่นใน P --- , ทำไมมันเป็นความจริง? ที่นี่ฉันคิดว่าคุณจะได้รับปรีชาญาณจำนวนมากโดยการดูปรากฏการณ์ก่อนหน้านี้จากการคำนวณ: แบบจำลองการคำนวณ "snap" แบบธรรมชาติมากมายจนกลายเป็นทัวริงที่สมบูรณ์ ในกรณีนี้ฉันจะบอกว่าคำอธิบายคือเมื่อคุณมีองค์ประกอบพื้นฐานไม่กี่อย่างเช่นหน่วยความจำการอ่าน / เขียนลูปเงื่อนไขและอื่น ๆ --- มันยากที่จะหลีกเลี่ยงความสามารถในการจำลองเครื่องทัวริงและทำให้ทัวริงเสร็จสมบูรณ์ ในทำนองเดียวกันเมื่อปัญหาการค้นหาหรือการเพิ่มประสิทธิภาพของคุณมีองค์ประกอบพื้นฐานไม่กี่ข้อที่สำคัญที่สุดคือความสามารถในการสร้าง "แกดเจ็ต" ที่เลียนแบบประตูตรรกะเช่น AND, OR และไม่ใช่ --- มันยากที่จะหลีกเลี่ยงความสามารถ เพื่อเข้ารหัส SAT และดังนั้นจึงเป็น NP-complete

วิธีที่ฉันชอบคิดปัญหาเช่น SAT ออกแรง "แรงโน้มถ่วงดึง" ที่มีประสิทธิภาพในทุกปัญหาการคำนวณอื่น ๆ ในละแวกของพวกเขาทำให้พวกเขาต้องการ "สแนปอัพ" เพื่อให้ NP สมบูรณ์ ดังนั้นปกติแล้วมันไม่จำเป็นต้องมีคำอธิบายพิเศษเมื่อยังมีปัญหาอื่นเกิดขึ้นกับการดึง! สิ่งที่โดดเด่นมากขึ้นและต้องการคำอธิบายเพิ่มเติมก็คือเมื่อปัญหา NP ที่เห็นได้ยากมีคุณสมบัติบางอย่างที่ช่วยให้ต้านทานแรงดึงโน้มถ่วงของ SAT ได้ เราต้องการทราบว่า: อะไรคือคุณสมบัติ? ทำไมคุณไม่สามารถเล่นเคล็ดลับความสมบูรณ์แบบ NP ปกติสำหรับปัญหานี้ได้จากการสร้างแกดเจ็ตที่เข้ารหัสประตูตรรกะบูลีน ฉันสร้างรายการคำตอบทั่วไปสำหรับคำถามนั้นคำตอบ CS.SE ล่าสุดนี้แต่ (เนื่องจากผู้แสดงความคิดเห็นคนอื่นชี้ไปแล้ว) มีคำตอบอื่น ๆ ที่เป็นไปได้ที่ฉันพลาดไป


ส่วนที่เกี่ยวข้องกับส่วนสุดท้ายคือคำถามของ Scott ที่cstheory.stackexchange.com/questions/19256/ …
András Salamon

17

ปัญหาธรรมชาติหลายอย่างสามารถแสดงเป็นปัญหาความพึงพอใจของข้อ จำกัด และมีทฤษฎีบทการแบ่งขั้วสำหรับ CSP


9

เพียงแค่เรื่องตลก: หลังจากคิดถึง "แรงดึงดูด SAT" ในคำตอบที่ดีของ Scott Aaronson คำอุปมาอุปมัยอีกหนึ่งมาถึงใจของฉัน: แซนวิช 3-SAT 2-SAT !

enter image description here



... แต่ฉันไม่รู้ว่าแซนวิชสามารถเติมด้วยส่วนผสมจากธรรมชาติได้หรือไม่ (แต่ฉันพบว่ามันอาจจะเต็มไปด้วยบางส่วน-SAT sauce [1] หากสมมติฐานของ Exponential-Time เป็นจริง) :-D(2+(logn)kn2)

ผลใน [1] ก็คือว่ามันไม่สามารถจะเต็มไปด้วย 2(2+1/n2ϵ),0<ϵ<2

[1] Yunlei Zhao, Xiaotie Deng, CH Lee, Hong Zhu, -SAT และคุณสมบัติของมัน(2+f(n)) , คณิตศาสตร์ประยุกต์แบบไม่ต่อเนื่อง, เล่มที่ 136, ฉบับที่ 1, 30 มกราคม 2004, หน้า 3-11, ISSN 0166 -218X


3
อย่างไรก็ตามไม่สามารถเติมด้วย -SAT: eccc.hpi-web.de/report/2013/159(2+ε)
Joshua Grochow

@JoshuaGrochow: การอ้างอิงของฉันสำหรับ "sauce" คือกระดาษ Zhao, Deng, Lee และ Zhu " -SAT และคุณสมบัติ" พวกเขายังพิสูจน์ว่าไม่สามารถเติม( 2 + 1 / n 2 - ϵ ) , 0 < ϵ < 2 ... ฉันจะดู( 2 + ϵ ) -SAT กระดาษ (ฉันเปิดมันเท่านั้นและมันแปลกที่พวกเขาไม่ได้ใส่ Zhao et al. การอ้างอิงของพวกเขา)(2+f(n))(2+1/n2ϵ),0<ϵ<2(2+ϵ)
Marzio De Biasi

3
คำจำกัดความของ -SAT ในเอกสารสองฉบับนั้นแตกต่างกัน ฉันคิดว่าทั้งสองถูกต้องแล้ว! (2+f(n))
Joshua Grochow

1
@MarzioDeBiasi คุณควรพิจารณาเพิ่มการอ้างอิงทั้งสองนี้โดยตรงในคำตอบของคุณ (ซึ่งสามารถค้นหาได้) แทนที่จะซ่อนไว้ในความคิดเห็น
Artem Kaznatcheev

8

เราไม่สามารถแยกแยะความเป็นไปได้ที่มีปัญหาตามธรรมชาติ ระดับกลางมากมาย ความขาดแคลนที่เห็นได้ชัดคือเกิดจากการขาดเทคนิคที่จำเป็นและเครื่องมือที่จำเป็นที่จะพิสูจน์N Pสถานะ -intermediate ภายใต้การคาดเดาไปได้บางซับซ้อน (ร่าและบาราตั้งข้อสังเกตว่าเราไม่สามารถพิสูจน์N Pสถานะ -intermediate ธรรมชาติใด ๆN Pปัญหาแม้สมมติP N P )NPNPNPNPPNP

It seems that the floodgates of natural NP-intermediate problems are open. Jonsson, Lagerkvist, and Nordh extended the diagonalization technique of Ladner, known as blowing holes in problems, and applied it to Constraint Satisfaction Problems. They obtained a CSP that is a candidate for NP-intermediate status. They proved that propositional abduction problem has NP-intermediate fragments.

นอกจากนี้Groheพิสูจน์แล้วว่าการดำรงอยู่ของปัญหา -intermediate CSP สมมติว่าF P T W [ 1 ] เขาได้รับปัญหาดังกล่าวโดยการ จำกัด ความกว้างของต้นไม้ของกราฟปฐมที่สอดคล้องกันNPFPTW[1]

การอ้างอิง :

1- M. Grohe ความซับซ้อนของโฮโมมอร์ฟิซึมและปัญหาความพึงพอใจของข้อ จำกัด ที่มองเห็นจากอีกด้านหนึ่ง วารสาร ACM, 54 (1), บทความ 1, 2007

2- Peter Jonsson, Victor Lagerkvist และ Gustav Nordh การเป่ารูในแง่มุมต่าง ๆ ของปัญหาการคำนวณด้วยการประยุกต์ใช้เพื่อความพึงพอใจของข้อ จำกัด ในรายงานการประชุมวิชาการระดับนานาชาติครั้งที่ 19 เรื่องหลักการและการปฏิบัติการเขียนโปรแกรมข้อ จำกัด (CP-2013) 2013


1
why do these CSP problems not fall under the dichotomy conjecture?
Sasho Nikolov

1
Is restricting the treewidth as in Grohe's result actually natural? (The question is not rhetorical - I honestly don't know.) In my opinion, the Johnsson-Lagerkvsit-Nordh constructions only seem slightly more natural than Ladner's. I think the point in your first paragraph is an excellent one.
Joshua Grochow

@JoshuaGrochow I'am afraid that it is arguable as there is no formal notion for what natural means.
Mohammad Al-Turkistany

@SashoNikolov Do you mean the dichotomy conjecture of Feder and Vardi?
Mohammad Al-Turkistany

1
@MohammadAl-Turkistany: I don't see a contradiction. JLN explicitly construct classes of instances that are not in the form CSP(A,_) or CSP(_,B), so they avoid the dichotomies that are known. See also the earlier pair of papers by Chen-Thurley-Weyer and Bodirsky-Grohe for similar ideas.
András Salamon

7

นี่คือเทพนิยายเกี่ยวกับโครงสร้าง Goldilocks ของปัญหาระดับกลาง (คำเตือน: เรื่องราวนี้อาจเป็นความเข้าใจผิดที่เป็นประโยชน์ในการสร้างและทดสอบสมมติฐานที่เป็นไปได้ แต่ไม่ได้หมายถึงการเข้มงวดทางวิทยาศาสตร์มันอาศัยสมมติฐาน Hypothesis เวลาส่วนหนึ่งส่วนหนึ่งของเวทมนตร์ที่ซับซ้อนของ Kolmogorov บางชิ้นยืมมาจากทฤษฎี SAT การแก้ปัญหาและการแก้ปัญหาสามอย่างของเทอเรนซ์เทารสำหรับปัญหาใช้ความเสี่ยงของตัวเองเช่นเดียวกับการปรุงด้วยมือที่โบกมือทั้งหมดเกี่ยวกับคณิตศาสตร์)

If nearly all instances in a problem in NP are highly structured, then the problem is actually in P. The instances thus nearly all contain a lot of redundancy, and a polynomial-time algorithm for the problem is a way to factor out the redundancy. It is even conceivable that every problem in P can be obtained by taking some problem in EXP and adding some structured redundancy, via some form of padding (not necessarily the usual kind). If this were so, then a polynomial-time algorithm could be seen as an efficient way to undo that padding.

If there are enough instances that are not structured, forming a "core of hardness", then the problem is NP-complete.

However, if this "core of hardness" is too sparse, then it only has room to represent some of SAT, so the problem is in P or NP-intermediate. (This argument is the essence of Ladner's theorem). To use Scott's analogy, the "core of hardness" exerts a gravitational pull on the problem, toward it being NP-complete. The instances in the "core of hardness" do not contain much redundancy, and the only realistic algorithm that works for all those instances is brute force search (of course, if there are only finitely many, then table lookup works, too).

จากมุมมองนี้ปัญหาระดับกลางปัญหาควรจะหายากในทางปฏิบัติเนื่องจากพวกเขาต้องการความสมดุลของโกลด์ล็อกที่ดีระหว่างอินสแตนซ์ที่มีโครงสร้างและไม่มีโครงสร้าง อินสแตนซ์ควรมีความซ้ำซ้อนมากพอที่พวกเขาสามารถแก้ไขบางส่วนของอัลกอริทึมได้ แต่ควรมีแกนของความแข็งที่เพียงพอซึ่งปัญหาไม่ได้อยู่ในพี


เราสามารถบอกเล่าเรื่องราวที่เรียบง่าย (และน่าขบขัน แต่อาจทำให้เข้าใจผิดได้มากขึ้น) ตามปริศนา ด้วยข้อ จำกัด เพียงไม่กี่อย่างเราสามารถบังคับให้ทำการค้นหาจำนวนมากได้ตัวอย่างเช่น NxN Sudoku นั้นคือ NP-complete ตอนนี้ให้ลองพิจารณาให้แก้ปริศนาเล็ก ๆ จำนวนมากเป็นตัวอย่างในคราวเดียว (เช่น 9x9 Sudokus จำนวนมาก) เวลาที่ใช้จะเป็นเส้นตรงในจำนวนตัวต่อในแต่ละตัวอย่างและปัญหานี้ก็คือในพีสำหรับปัญหากลางใคร ๆ ก็สามารถคิดว่าแต่ละตัวอย่างมีขนาดใหญ่จำนวนมาก (แต่ไม่ใหญ่เกินไป) กริด เหตุผลที่เราไม่ได้สังเกตปัญหาดังกล่าวเป็นเพราะพวกเขาน่าเบื่อที่จะวางท่าและแก้ปัญหา!


1
Here is some further technical meat to add to your "core of hardness" story. N. Lynch (1975) defined a p-complexity core for a language L to be a set of strings C such that for all algorithms that correctly decide L on all inputs, for all k, the algorithm runs in time nk+k on only finitely many inputs from C. Lynch showed that every LP has a p-complexity core, and Orponen and Schoning showed that every such L has a core that is not polynomially sparse. One might (might) hypothesize that languages in NP with sufficiently dense cores have to be NP-complete.
Joshua Grochow

1
The references Joshua mentioned: Lynch: dx.doi.org/10.1145/321892.321895 and Orponen-Schöning: dx.doi.org/10.1016/S0019-9958(86)80024-9 also see Orponen-Ko-Schöning-Watanabe: dx.doi.org/10.1145/174644.174648
András Salamon

2

Several answers pointed out that the premise of my question (the relative scarcity of natural NPI-candidates) might be questionable. After some thinking, I must accept that they indeed have a point. In fact, one can even go as far as to make the case that there are actually more natural NPI candidates than natural NP-complete problems. The argument could go as follows.

Consider the LOGCLIQUE problem, which aims at deciding whether an n-vertex input graph has a clique of size logn. This is a natural NPI candidate. Now, the same type of "scaling down" can be carried out on any NP-complete problem. Simply replace the question "does the input string x have a property Q?" by the scaled down question "does x have a logarithmically sized substring that has property Q?" (We may restrict ourselves only to those substrings that represent the appropriate type of structure, such as subgraphs etc.) Arguably, if the original problem was natural, the scaling down does not change this, since we only alter the size of what is sought for. The resulting problem will be an NPI candidate, since it is solvable in quasi-polynomial time, but still unlikely to fall into P, as the mere size restriction probably does not introduce new structure.

This way, we can construct a natural NPI candidate for every natural NP-complete problem. Additionally, there are also generic candidates that do not arise via scaling down, such as Graph Isomorphism, Factoring etc. Thus, one can indeed make the case that "natural-NPI" is actually more populous than "natural NPC."

Of course, this scaling down process, using Scott's nice metaphor, gives an obvious reason for resisting the "gravitational pull" of SAT. While there are papers published about LOGCLIQUE and similar problems, they did not draw too much attention, as these problems are less exciting than the the generic NPI candidates, where there is no clear understanding of how the gravitational pull is resisted, without falling into P.


3
Your argument seems fine for problems in W[1], but it seems to fail higher up in the W-hierarchy. Yet you contend that this works for "every natural NP-complete problem". What am I missing?
András Salamon

My understanding is that the scaling down can be done independently from any parametrization. If the original problem asks "does the input string x have a property Q?" then you can always replace it by the question "does x have a O(log|x|) sized substring that has property Q?" I do not see the relationship with parametrized complexity.
Andras Farago

For 3-COLOURING, what is the scaled down version of the problem?
András Salamon

1
I understand that the scaling down works for any problem, but I would argue that it's only natural for problems that are (naturally) parametrized to begin with. Viz: LOGCLIQUE is fairly natural, but "Does a graph on n vertices have a logn-sized subgraph that is 3-colorable?" doesn't seem natural to me, because the original problem had nothing to do with finding a widget (e.g. clique) of a certain size.
Joshua Grochow

2
It's not the difference b/w "being a clique" and "being 3-colorable". It's the difference between the original problem being: 1) does a graph have a subgraph with some property of a given size (e.g. CLIQUE) vs. 2) does a graph have a property. In the case of (1), changing the size to be log is natural, b/c the size of the subgraph was already part of the question. When you do your trick to (2), you add in the size of the subgraph as a new part of the problem.
Joshua Grochow
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.