ผลลัพธ์ที่มีอิทธิพลมากที่สุดของลิปตัน


30

Richard J. Lipton ได้รับเลือกให้เป็นผู้ชนะรางวัล Knuth Prize ประจำปี 2014 "สำหรับการแนะนำแนวคิดและเทคนิคใหม่ ๆ "

อะไรคือสิ่งที่คุณคิดว่าเป็นแนวคิดและเทคนิคใหม่ที่ลิปตันพัฒนาขึ้นมา?

บันทึก. คำถามนี้จะกลายเป็นวิกิชุมชนโปรดใส่หนึ่งความคิดเทคนิคหรือผลลัพธ์ต่อคำตอบ


11
ขอแสดงความยินดีกับ Richard J.Lipton! :-)
Marzio De Biasi

บล็อก RJLipton (อายุ 5 ปีขึ้นไป) พร้อมลิงก์ไปยังหนังสือ / งานวิจัย ฯลฯ
vzn

1
มันจะดีถ้ามีคนเขียนอะไรบางอย่างเกี่ยวกับความซับซ้อนของการสื่อสารหลายส่วนและหมายเลขบนโมเดลหน้าผาก ฉันยังไม่มีเวลา
Sasho Nikolov

นี่คือลิงค์ไปยัง Knuth Prize Lecture: techtalks.tv/talks/ …
Michael Wehar

1
มีเอกสารสองฉบับที่ยังไม่ได้กล่าวถึงที่นี่ว่าทั้งคู่มีการอ้างอิงมากกว่า 500 รายการใน Google Scholar: scholar.google.com/… (Aleliunas et al., บน L vs. NL, เอกสารซับซ้อนที่สำคัญ) และscholar.google.com/ (De Millo et al. ว่าทำไมการทดสอบอาจดีกว่าการพิสูจน์อย่างเป็นทางการของความถูกต้องของโปรแกรม - การโต้เถียง!)
András Salamon

คำตอบ:


34

ระนาบแยกทฤษฎีบทระบุว่าในระนาบใด ๆ -vertex กราฟGมีอยู่ชุดของO ( nGจุดยอดที่การลบออกจากกราฟถูกตัดการเชื่อมต่อเป็นส่วนประกอบอย่างสมดุลสองส่วนอย่างน้อย ยิ่งไปกว่านั้นชุดดังกล่าวสามารถพบได้ในเวลาเชิงเส้น ผลลัพธ์ (แน่น) นี้พิสูจน์โดย Lipton และ Tarjan(ปรับปรุงจากผลลัพธ์ก่อนหน้าโดย Ungar) เป็นเครื่องมือที่ทรงพลังสำหรับการออกแบบอัลกอริทึมบนกราฟระนาบ มันให้อัลกอริธึมเวลาเอ็กซ์โปแนนเชียลที่แน่นอนสำหรับปัญหา NP-hard และอัลกอริทึมการประมาณเวลาแบบโพลิโนเมียลที่ดีขึ้น การดูหน้าวิกิพีเดียเป็นจุดเริ่มต้นที่ดีในการสำรวจแอปพลิเคชั่นมากมาย การสำรวจเบื้องต้นโดยมีรายละเอียดเกี่ยวกับแอปพลิเคชั่นจำนวนมากถูกเขียนขึ้นโดย Lipton และ Tarjan ในปี 1980O(n)


2
อัลกอริธึมเกือบทั้งหมดนั้นใช้เทคนิคการย่อยสลายที่ไม่ใช่ตัวคั่นระนาบ นอกจากนี้ยังมีรูปแบบการพิสูจน์ทฤษฎีบทตัวคั่นจำนวนมากเราควรพูดขอบคุณนักประดิษฐ์ที่พิสูจน์ได้ทั้งหมด ในวิธีที่คุณพูดเกี่ยวกับตัวแยกเราควรพูดขอบคุณคนที่พบตัวเลขก่อนมาก (พวกเขาไม่พบตัวคั่นระนาบเล็ก ๆ ในตอนแรกพวกเขาเพิ่งปรับปรุงตัวเก่า) โปรดทราบว่าในการย่อยสลายเราต้องการตัวคั่นพิเศษอีกชนิด เทคนิคการสลายตัวส่วนใหญ่ได้มาจากงานของ Robertson และ Seymour ซึ่งมักใช้งานได้แม้ในผู้เยาว์ที่ได้รับการยกเว้น
Saeed

14
@Seed ตามปกติคุณฟังดูแปลก ๆ นี่คือวิกิชุมชนรู้สึกฟรีเพื่อปรับปรุงคำตอบตามที่เห็นสมควร ฉันเพิ่มว่าพวกเขาไม่ได้พบตัวคั่นระนาบขนาดเล็ก เท่าที่ฉันทราบสำหรับแต่ละแอปพลิเคชันที่ฉันพูดถึงมีตัวอย่างที่ทำงานผ่านทฤษฎีบทตัวคั่นระนาบ (และตัวอย่างจำนวนมากสามารถพบได้ในการสำรวจ 1980 โดย Lipton และ Tarjan) นี่ไม่ได้หมายความว่าไม่จำเป็นต้องใช้เครื่องมืออื่นหรือวิธีการอื่นไม่มีอยู่ กระดาษของลิปตันและทาร์จันถือกำเนิดผลของ Alon, Robertson และ Seymour เป็นเวลา 10 ปีขึ้นไป
Sasho Nikolov

3
@Saeed also I cannot believe you'd suggest with a straight face that the planar separator theorem plays no more substantial role in these applications than the construction of the natural numbers. This is ridiculous!
Sasho Nikolov

9
In any case, let's try to be more constructive. Graph Minors I is from 1983, and is Robertson and Seymour's first paper together, so I don't see your point there. In any case I dont deny these ideas were around before: Ungar's result is from the 1950s. The point is, proving the tight bound was a landmark result, and there are a number of exact and and approximation algorithms that only need Lipton and Tarjan's theorem or decompositions that use it as a black box. The 1980 survey already gives quite a few examples (which predate Graph Minors I).
Sasho Nikolov

3
Their result is very nice (like many other nice results) but wording of this answer is in such a way that exaggerates it too much. e.g Planar separator is not really a main tool to deal with hard problem in planar graphs, at least nowadays, When there are lots of decomposition techniques for more general scenario. Also I want to stress that their work while is great but not that much great even in their time (+-5 y). Everything I said in this two comments is just repeating my previous words just because you and at least 4 others like to do personal attack.
Saeed

26

Karp-Lipton Theorem states that NP cannot have polynomial-size boolean circuits unless the Polynomial hierarchy collapses to its second level.

Two implications of this theorem for complexity theory:

  • NP probably has no polynomial-size boolean circuits; proving lower bounds on circuit sizes is therefore a possible approach for separating complexity classes.
  • มีหลายผลลัพธ์ขึ้นอยู่กับทฤษฎีบทนี้เพื่อพิสูจน์การแยกคลาสที่ซับซ้อน (เช่นทฤษฎีบทของ Kannan)

23

11/(3n)Fn×n, where F is a finite field of size at least 3n, then this algorithm can be used as a black box to compute the permanent of any matrix with high probability.

The main idea is that the permanent is a low-degree polynomial, so its composition with a univariate affine function A+xB is a low-degree univariate polynomial (in x) and can be learned exactly from a small number of values via interpolation. You can pick a random B so that the composition is distributed as the permanent of a random matrix for any x. At x=0 the univariate polynomial is just the permanent of A. Details can be found in Chapter 8 of Arora Barak.

This algebraic approach has been extremely influential in complexity theory. Lipton's ideas led eventually to the proof of the IP=PSPACE theorem, the proof of the PCP theorem, and to results on local error-correcting codes.


16

I'm not 100% sure if the explanation below is historically accurate. If it isn't, please feel free to edit or remove.

Mutation testing was invented by Lipton. Mutation testing can be seen as a way to measure the quality or effectiveness of a test suite. The key idea is to inject faults into the program to be tested (i.e. to mutate the program), preferably the kinds of faults a human programmer is likely to make, and see if the test suite finds the introduced faults. A typical example of the kind of fault mutation testing would introduce could be to replace x > 0 by x < 0, or replace x by x+1 or x-1. The fraction of faults caught by the test suite is the "mutation adequacy score" of a test suite. Speaking very loosely, one can think of this as a Monte-Carlo method for computing the mutation adequacy score.

More abstractly one might say that mutation testing brings to the fore a symmetry or duality between a program and its test suites: not only can the test suite be used to become more confident about the correctness of a program, but conversely, a program can be used to gain confidence about the quality of a test suite.

In the light of this duality, mutation testing is also conceptually close to fault injection. Both are technically similar but have different purposes. Mutation testing seeks to measure the quality of the test suite, while fault injection seeks to establish the quality of the program, usually the quality of its error handling.

Recently, ideas from mutation testing have been used to test (formalisations of) logical theories. To paraphrase the abstract of (4): When developing non-trivial formalizations in a theorem prover, a considerable amount of time is devoted to “debugging” specifications and theorems. Typically, incorrect specifications or theorems are discovered during failed proof attempts. This is an expensive form of debugging. Therefore it is often useful to test conjectures before embarking on a proof. A possible way of doing this is to assign random values to the free variables of the conjecture and then evaluate it. (4) uses mutations to test the quality of the used test-case generators.

History. From (1): The history of mutation testing can be traced back to 1971 in a student paper by Richard Lipton [...] The birth of the field can also be identified in other papers published in the late 1970s by Lipton et al. (2) as well as Hamlet (3).

  1. Mutation Testing Repository: Mutation Testing Theory.

  2. R. A. DeMillo, R. J. Lipton, F. G. Sayward, Hints on Test Data Selection: Help for the Practicing Programmer.

  3. R. G. Hamlet, Testing Programs with the Aid of a Compiler.

  4. S. Berghofer, T. Nipkow, Random testing in Isabelle/HOL..


15

Schwartz - Zippel - DeMillo-Lipton Lemma is a fundamental tool in arithmetic complexity: It basically states that if you want to know whether an arithmetic circuit represents the zero polynomial, all you need is to evaluate the circuit on one input. Then you'll obtain a nonzero value with good probability if the circuit does not represent the zero polynomial.

This is a particularly important lemma since no polynomial-time deterministic algorithm is known for this problem.

The lemma is usually known as Schwartz-Zippel Lemma. A history of this lemma can be found on Lipton's own blog.


4
As pointed out in a comment buried at the bottom of that blog post, it's worth mentioning that an important special case of this lemma goes back to at least 1922, when it was proven by Ore (see "Finite Fields" by Lidl and Niederreiter, Theorem 6.13 and chapter notes).
Ashley Montanaro

13

Coverability in vector addition systems is EXPSPACE-hard: in R. J. Lipton, The reachability problem requires exponential space, Research report 63, Yale University, 1976.

A vector addition system (VAS, equivalent to a Petri net) of dimension d is defined as a pair v0,A where v0 is a vector of non-negative integers in Nd and A is a finite set of vectors of integers included in Zd. A VAS defines a transition system over configurations in Nd where vv if there exists u in A such that v=v+u (note that no component of v can be negative). The coverability problem, given a VAS and a target vector v in Nd, asks whether there exists an execution v0v1vn of the VAS such that vnv for the product ordering over Nd, i.e. vn(i)v(i) for all 1id. Combined with an EXPSPACE upper bound proven by C. Rackoff in 1978, Lipton's result shows the completeness for EXPSPACE.

This result, as recounted on Lipton's blog, still provides the best known lower bound on the (seemingly? much harder) reachability problem, where one requires instead vn=v. Interestingly, it was proven before reachability was shown decidable. The lower bound and the technique employed to prove it have been reused countless times in relation with various classes of counter systems, and indirectly for other classes of systems or logics.


5

Multiparty communication complexity and the Number-on-Forehead model were introduced by Ashok K. Chandra, Merrick L. Furst and Richard J. Lipton in Multi-party Protocols, STOC 1983, doi:10.1145/800061.808737.

The multiparty model is a natural extension of Yao's two-party model of communication complexity, where Alice and Bob each have non-overlapping halves of the input bits, and want to communicate to compute a predetermined function of the whole input. However, extending the partition of the input bits to more parties is often not very interesting (for lower bounds, one can usually just consider the first two parties).

Instead, in the NOF model k parties each know all except one number from a set of k integers, with the number not known to the party notionally "displayed on their forehead" for the other parties to see. Nowadays the numbers are usually required to be non-negative integers represented using at most n bits. The parties want to compute some pre-arranged Boolean function of all the numbers. The question is: for which functions can this be done efficiently?

It is always possible to just send n bits (for instance, by the second party telling the first party the number on its forehead).

The paper gives a non-trivial but essentially optimal protocol for the function Exactly-N, which is true when the sum of the k numbers is N. In particular, k=3 parties can determine Exactly-N using O(logN) bits. Since Nk(2n1), this is O(n) bits. The lower bound argument is Ramsey-theoretic, via a multidimensional form of Van Der Waerden's theorem.

The NOF model has been used in much subsequent work in circuit complexity: multiparty communication lower bounds naturally translate into circuit lower bounds. One classic example is the link made by Håstad and Goldmann in 1991 (doi:10.1007/BF01272517 between fixed-depth threshold circuits of polynomial size, and the multiparty NOF communication complexity of the Inner Product function: a nontrivial lower bound for IP with a more than logarithmic number of parties would yield circuit size lower bounds for TC0.

In the original paper the multiparty model was linked to branching program lower bounds, yielding that any constant-space branching program for Exactly-N requires superlinear length.


Looks very nice, thanks for following through on my suggestion.
Sasho Nikolov
โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.