มีกฎหมายอนุรักษ์ในทฤษฎีความซับซ้อนหรือไม่


46

ผมขอเริ่มด้วยตัวอย่าง ทำไมการแสดง CVP จึงเป็นเรื่องเล็กน้อยดังนั้นจึงยากที่จะแสดงว่า LP อยู่ใน P; ในขณะที่ทั้งคู่เป็นปัญหา P-Complete

หรือใช้เวลาเป็นอันดับแรก มันง่ายกว่าที่จะแสดงคอมโพสิตใน NP มากกว่าช่วงเวลาใน NP (ซึ่งจำเป็นต้องใช้แพรตต์) และในที่สุดใน P ทำไมมันต้องแสดงความไม่สมดุลนี้เลย?

ฉันรู้ว่าฮิลแบร์ต, ต้องการความคิดสร้างสรรค์, การพิสูจน์อยู่ใน NP ฯลฯ แต่นั่นก็ไม่ได้หยุดฉันจากการมีความรู้สึกไม่สบายใจที่มีมากกว่านี้ตรงกับตา

มีแนวคิดเชิงปริมาณของ "งาน" และมี "กฎหมายการอนุรักษ์" ในทฤษฎีความซับซ้อนหรือไม่? ตัวอย่างนั้นแสดงให้เห็นว่าแม้ว่า CVP และ LP เป็นทั้ง P-Complete พวกเขาซ่อนความซับซ้อนของพวกเขาที่ "สถานที่ต่างกัน" - หนึ่งในการลดลง (CVP ง่ายเพราะการทำงานทั้งหมดเสร็จในการลดลงหรือไม่) และ อื่น ๆ ในการแสดงออกของภาษา

ใครอื่นไม่สบายด้วยและมีข้อมูลเชิงลึกบางอย่าง? หรือว่าเรายักและพูด / ยอมรับว่านี่เป็นธรรมชาติของการคำนวณ?

นี่เป็นคำถามแรกของฉันในฟอรั่ม: นิ้วไขว้กัน

แก้ไข: CVP เป็นปัญหาค่าวงจรและ LP เป็นการเขียนโปรแกรมเชิงเส้น ขอบคุณ Sadeq ที่ชี้ให้เห็นความสับสน


7
ตอนแรกฉันเข้าใจผิดว่า CVP สำหรับปัญหาเวกเตอร์ที่ใกล้ที่สุด (ซึ่งเป็นปัญหาที่ยาก) จากนั้นผมสังเกตเห็นว่ามันเป็นวงจรราคาปัญหา ฉันคิดว่ามันจะมีประโยชน์ที่จะพูดถึงเรื่องนี้
MS Dousti

5
คำถามที่น่าสนใจ ไม่แน่ใจว่ามีคำตอบที่น่าสนใจ :)
Suresh Venkat

7
แค่การสังเกต: ความยากลำบากในการพิสูจน์ความเป็นสมาชิกของ NP (พูด) ไม่ใช่ทรัพย์สินของภาษา แต่เป็นคุณสมบัติของคำอธิบายภาษา ตัวอย่างเช่นต้องใช้ความพยายามบางอย่างเพื่อพิสูจน์ว่าชุดของช่วงเวลานั้นอยู่ใน NP แต่มันเป็นเรื่องเล็กน้อยที่ชุดของจำนวนเต็มที่มีใบรับรอง Pratt อยู่ใน NP
Tsuyoshi Ito

2
ข้อ จำกัด ด้านเวลาไม่สามารถนำมาใช้เป็นกฎหมายการอนุรักษ์ในแง่ของถ้อยคำของคำถามนี้ได้หรือไม่?
ไม่ฝักใฝ่ฝ่ายใด Woo

1
แนวคิดของการคำนวณเชิงลึกของ Charles Bennett (แต่เดิมคือ "ความลึกเชิงตรรกะ") อาจเป็นส่วนหนึ่งของสัญชาตญาณของ
Aaron Sterling

คำตอบ:


13

นี่เป็นคำถามที่วิ่งข้ามความคิดของฉันหลายครั้ง

ฉันคิดว่าที่เดียวที่ควรมองคือทฤษฎีข้อมูล นี่คือการเก็งกำไรของฉัน มีปัญหาบางทีเราสามารถให้ค่าเอนโทรปีของข้อมูลที่ป้อนเข้าและข้อมูลที่ได้รับจากอัลกอริทึม หากเราสามารถทำเช่นนั้นได้จะมีจำนวนขั้นต่ำของข้อมูลที่ต้องการโดยอัลกอริทึมในการแก้ปัญหานั้น

มีสิ่งหนึ่งที่เกี่ยวข้องที่ฉันต้องการทราบ ในปัญหา NP-complete บางอย่างคุณสามารถค้นหาเวอร์ชันที่มีข้อ จำกัด ใน P; ด้วยเส้นทาง Hamiltonian หากคุณระบุว่ากราฟเป็น DAG ดังนั้นจึงมีอัลกอริทึม p-time เพื่อแก้ปัญหา สำหรับปัญหาอื่น ๆ เช่น TSP มักมีอัลกอริธึม p-time ที่จะประมาณค่าที่เหมาะสมที่สุด สำหรับฉันแล้วสำหรับขั้นตอนวิธี p-time ที่ จำกัด ควรมีความสัมพันธ์แบบสัดส่วนระหว่างข้อมูลเพิ่มเติมที่สมมติและการลดความซับซ้อนของเวลาทำงาน ในกรณีของ TSP เราไม่ได้สมมติข้อมูลเพิ่มเติมเรากำลังผ่อนคลายความแม่นยำซึ่งฉันคาดว่าจะมีผลคล้ายกันกับการเพิ่มขึ้นของข้อมูลอัลกอริทึมใด ๆ

หมายเหตุเกี่ยวกับกฎหมายการอนุรักษ์

ในปี 1900 ก่อนหน้านี้มีนักคณิตศาสตร์ชาวเยอรมัน - อเมริกันที่รู้จักกันน้อยชื่อ Emily Noether เหนือสิ่งอื่นใดเธออธิบายโดย Einstein และ Hilbert เป็นผู้หญิงนำเข้ามากที่สุดในประวัติศาสตร์ของคณิตศาสตร์. ใน 1,915 เธอเผยแพร่สิ่งที่เรียกว่าทฤษฎีบทแรก Noether ของ . ทฤษฎีบทนี้เกี่ยวกับกฎการอนุรักษ์ทางกายภาพและกล่าวว่ากฎหมายการอนุรักษ์ทั้งหมดมีความสมมาตรที่แตกต่างกันในระบบทางกายภาพ การอนุรักษ์โมเมนตัมเชิงมุมมาจากการหมุนสมมาตรในอวกาศการอนุรักษ์โมเมนตัมเชิงเส้นเป็นการแปลในอวกาศการอนุรักษ์พลังงานแปลในเวลา เมื่อพิจารณาว่าเพื่อให้มีกฎการอนุรักษ์ความซับซ้อนอย่างเป็นทางการจะต้องมีสมมาตรเชิงอนุพันธ์ที่สอดคล้องกันในฟังก์ชัน Langragian


2
+1 คำตอบยอดเยี่ยม! ฉันมักจะมี musings ที่คล้ายกัน (@MattRS: ส่งอีเมลถึงฉัน) โดยวิธีการที่ฉันไม่คิดว่า Emmy Noether เป็น "ที่รู้จักกันน้อย" แต่ในความเป็นจริงค่อนข้างตรงข้ามแม้ว่าบางทีเธออาจจะไม่เป็นที่รู้จักใน TCS ทฤษฎีบทแรกของ Noether เป็นที่รู้จักกันดีในหมู่นักฟิสิกส์และวง Noetherian เป็นวัตถุศูนย์กลางของการศึกษาในพีชคณิตแบบสับเปลี่ยนและเรขาคณิตเชิงพีชคณิต อีกหลายทฤษฎีที่สำคัญซึ่งส่วนใหญ่อยู่ในพื้นที่เหล่านั้นก็มีชื่อของเธอเช่นกัน
Joshua Grochow

ใช่นั่นคือสิ่งที่ฉันหมายถึง; ไม่รู้จักคอม compi ฉันคิดเสมอว่าพีชคณิตนามธรรมควรได้รับการสอนอย่างกว้างขวางมากขึ้นใน CS
MattRS

α>1α-εε>0

6

ฉันคิดว่าเหตุผลอยู่ในระบบตรรกะที่เราใช้ แต่ละระบบอย่างเป็นทางการมีชุดของหลักการและชุดของกฎของการอนุมาน

การพิสูจน์ในระบบที่เป็นทางการเป็นเพียงลำดับของสูตรเช่นนั้นแต่ละสูตรในลำดับจะเป็นความจริงหรือได้มาจากสูตรก่อนหน้าในลำดับโดยใช้กฎการอนุมาน ทฤษฎีบทของระบบที่เป็นทางการเป็นเพียงสูตรสุดท้ายในการพิสูจน์

ความยาวของการพิสูจน์ทฤษฎีบทโดยสมมติว่ามันสามารถตัดสินใจได้ในระบบตรรกะขึ้นอยู่กับเซตของสัจพจน์และกฎของการอนุมานกฎของการอนุมาน

ตัวอย่างเช่นพิจารณาตรรกะเชิงประพจน์ซึ่งมีตัวละครหลายตัว: Frege (1879), Nicod (1917) และ Mendelson (1979) (ดูแบบสำรวจสั้น ๆนี้สำหรับข้อมูลเพิ่มเติม)

φφความยาวของการพิสูจน์สูง

ปัญหานี้จะเรียกว่าซับซ้อนหลักฐาน เพื่ออ้างBeame & Pitassi :

หนึ่งในคำถามพื้นฐานที่สำคัญที่สุดของตรรกะคือต่อไปนี้: ให้คำสั่งที่เป็นสากลอย่างกว้างขวาง (tautology) ความยาวของการพิสูจน์ที่สั้นที่สุดของคำสั่งในระบบการพิสูจน์เชิงสัจพจน์มาตรฐานคืออะไร? ข้อเสนอเชิงตรรกะของคำถามนี้มีความสำคัญอย่างยิ่งในสาขาวิทยาศาสตร์คอมพิวเตอร์สำหรับการพิสูจน์ทั้งทฤษฎีและทฤษฎีความซับซ้อน คำถามอัลกอริทึมที่สำคัญที่เกี่ยวข้องคือ: มีอัลกอริทึมอิเล็กทรอนิกส์ที่จะสร้างการพิสูจน์ซ้ำซากใด ๆ ? มีอัลกอริทึมที่มีประสิทธิภาพในการสร้างหลักฐานที่สั้นที่สุดของการใช้ภาษาที่หยาบคายหรือไม่? คำถามดังกล่าวเกี่ยวกับการพิสูจน์ทฤษฎีบทและความซับซ้อนเป็นแรงบันดาลใจให้กระดาษเซดของ Cook เรื่อง NP-ครบถ้วนสมบูรณ์ชื่อ“ ความซับซ้อนของขั้นตอนการพิสูจน์ทฤษฎีบท” และได้รับการพิจารณาโดยGödelก่อนหน้านี้ในจดหมายที่รู้จักกันดีของเขา


6

ฉันกำลังคิดเกี่ยวกับคำถามเดียวกันนี้เมื่อวันก่อนตอนที่ฉันกำลังเล่นบทบรรยายเรื่องฟิสิกส์ของไฟย์แมนอีกครั้งและมาถึง บทที่ 4เกี่ยวกับการอนุรักษ์พลังงาน ในการบรรยาย Feynman ใช้ตัวอย่างของเครื่องจักรง่าย ๆ ที่ (ผ่านระบบคานหรือรอกหรืออะไรก็ตาม) ลดน้ำหนักหนึ่งหน่วยในระยะทาง x และใช้ยกน้ำหนักสองหน่วยที่สาม สามารถยกน้ำหนักได้สูงแค่ไหน? ไฟน์แมนทำการสังเกตว่าหากเครื่องสามารถย้อนกลับได้เราไม่จำเป็นต้องรู้อะไรเกี่ยวกับกลไกของเครื่อง - เราสามารถรักษามันได้เหมือนกล่องดำ - และมันจะยกน้ำหนักได้ไกลที่สุดเท่าที่จะทำได้ ( x / 3 ในกรณีนี้)

สิ่งนี้มีอนาล็อกในการคำนวณหรือไม่? แนวคิดของการคำนวณย้อนกลับทำให้นึกถึงงานของ Landauer และ Bennett แต่ฉันไม่แน่ใจว่านี่เป็นความหมายของคำที่เราสนใจ อย่างสังหรณ์ใจถ้าเรามีอัลกอริทึมสำหรับปัญหาบางอย่างที่ดีที่สุดแล้วก็ไม่มีงาน "เสีย" ที่ทำไปแล้ว ในขณะที่แนวทางเดรัจฉานบังคับปัญหาเดียวกันจะทิ้งรอบ CPU ไปทางซ้ายและขวา อย่างไรก็ตามฉันคิดว่าเราสามารถสร้างวงจรกลับด้านร่างกายสำหรับอัลกอริทึมอย่างใดอย่างหนึ่ง

ฉันคิดว่าขั้นตอนแรกในการเข้าใกล้กฎหมายการอนุรักษ์ความซับซ้อนในการคำนวณคือการค้นหาว่าควรอนุรักษ์อะไร Space และเวลาแต่ละตัวชี้วัดที่สำคัญ แต่ก็ชัดเจนจากการมีอยู่ของพื้นที่ / เวลาการแลกเปลี่ยนที่ไม่ได้อยู่คนเดียวโดยตัวมันเองจะเพียงพอสำหรับการวัดว่า "งาน" ถูกทำโดยอัลกอริทึม มีตัวชี้วัดอื่น ๆ เช่นการพลิกกลับหัว TM หรือการข้ามเซลล์เทปที่ใช้ สิ่งเหล่านี้ดูเหมือนจะไม่ใกล้เคียงกับสัญชาตญาณของเราถึงจำนวนของ "งาน" ที่ต้องใช้ในการคำนวณ

ด้านพลิกของปัญหาคือการหาสิ่งที่ได้รับการแปลงเป็นงาน เมื่อคุณได้รับผลลัพธ์จากโปรแกรมสิ่งที่คุณได้รับคืออะไร


3

ข้อสังเกตบางประการเกี่ยวกับกฎหมายการอนุรักษ์:

<พีPยังไม่มีข้อความP

P={L|L<พีHโอRnSAT}

ยังไม่มีข้อความP={L|L<พี3SAT}

Cโอยังไม่มีข้อความP={L|L¯<พี3SAT}

ยังไม่มีข้อความPC={L|L<พี3SAT,3SAT<พีL}

PC={L|L<พีHโอRnSAT,HโอRnSAT<พีL}

PP={L|L<พีHโอRnSAT,L¯<พีHโอRnSAT}Pยังไม่มีข้อความPP=ยังไม่มีข้อความP


1

เต่าชี้ให้เห็นถึงการดำรงอยู่ของกฎแห่งการอนุรักษ์ความยากลำบากในวิชาคณิตศาสตร์: "เพื่อพิสูจน์ว่าจริง ๆ แล้วไม่ใช่เรื่องไม่สำคัญ - ผลงานบางอย่างต้องทำที่ไหนสักแห่ง"

เขาระบุว่าความยากลำบากของการพิสูจน์ทางคณิตศาสตร์บางอย่างชี้ให้เห็นขอบเขตที่ต่ำกว่าจำนวนของความพยายามที่จำเป็นโดยกระบวนการพิสูจน์ทฤษฎีบท

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.