มีการประมาณการว่าความซับซ้อนของวิศวกรรมควอนตัมมีขนาดหรือไม่


12

สำหรับฉันแล้วดูเหมือนว่าคำถามที่เกี่ยวข้องอย่างมากสำหรับผู้ที่สนใจในการคำนวณควอนตัมจะเป็นอย่างไรว่าความซับซ้อนทางวิศวกรรมของระบบควอนตัมมีขนาด ความหมายมันง่ายต่อการสร้าง1คอมพิวเตอร์ -qubit มากกว่าหนึ่งnคอมพิวเตอร์ -qubit ในใจของฉันมันค่อนข้างคล้ายกับความจริงที่ว่ามันง่ายกว่าในการวิเคราะห์ปัญหาn 1 -body ปัญหามากกว่าหนึ่งปัญหาn- body เนื่องจากความยุ่งเหยิงเป็นปัจจัยกระตุ้นหลักที่อยู่เบื้องหลังการคำนวณควอนตัมในตอนแรกn 1nn 1n

คำถามของฉันคือต่อไปนี้: ดูเหมือนว่าเราควรจะดูแลเกี่ยวกับวิธีการที่ 'ความยากลำบากของการสร้างและการควบคุมระบบควอนตัมชั่งเติบโตกับn แก้ไขสถาปัตยกรรมเกตหรืออัลกอริทึม - มีความยากลำบากในหลักการที่เกิดขึ้นจากข้อเท็จจริงที่ว่าคอมพิวเตอร์n- qubit เป็นปัญหาที่เกิดขึ้นกับร่างกายจำนวนมากหรือไม่? และนั่นคือการพูดทางคณิตศาสตร์ความเข้าใจของเราเกี่ยวกับปรากฏการณ์ควอนตัมที่ขยายสู่ปรากฏการณ์คลาสสิกนั้นค่อนข้างแย่อย่างไร นี่คือความยากลำบากที่สามารถนิยามได้ในหลาย ๆ วิธีและคำถามที่เราสนใจคือการควบคุมเครื่องจักร1,000 -qubit (นั่นคือการรักษาความต่อเนื่องของ wavefunctions) เพียง100 x หนักกว่าการควบคุมnnn1000100เครื่อง 10 -qubit หรือ 100 2หรือ 100 ! หรือ 100 100 ? เรามีเหตุผลอะไรบ้างที่เชื่อว่ามันเป็นอดีตมากกว่าหรือน้อยกว่าไม่ใช่หลัง?101002100!100100


ฮาไม่ทราบว่าฉันเป็นอะไรและควรจะนำไปสู่ ​​...
Keith Rush

สวัสดี @KeithRush ไม่ได้มีบางอย่างขาดหายไปในประโยคแรกเหรอ? เป็นคำถามที่ดีมาก
MEE - Reinstate Monica

อย่างไม่ซ้ำกัน แต่ผมรู้สึกว่าคำตอบของคำถามที่สองมีการเชื่อมต่อลึก: quantumcomputing.stackexchange.com/questions/1803/...
agaitaarino

คำตอบ:


8

นี่เป็นคำถามที่ฉันคิดถึงมานานกว่า 10 ปี ในปี 2551 ฉันเป็นนักเรียนและฉันก็บอกอาจารย์ด้านการคำนวณควอนตัมของฉันว่าฉันต้องการศึกษา "ความซับซ้อนทางกายภาพ" ในการทำอัลกอริทึมควอนตัมซึ่งเป็นที่รู้จักกันในชื่อ "ความซับซ้อนในการคำนวณ"

ตัวอย่างเช่นการค้นหา Grover ต้องใช้ประตูควอนตัมซึ่งตรงข้ามกับประตูคลาสสิคO(n)แต่ถ้าต้นทุนในการควบคุมประตูควอนตัมมีขนาดเป็นn4ในขณะที่ประตูคลาสสิคเป็นเพียงn?O(n)O(n)n4n

เขาตอบทันที:

"แน่นอนว่าความคิดของคุณเกี่ยวกับความซับซ้อนทางกายภาพนั้นขึ้นอยู่กับการใช้งาน"

ที่กลายเป็นจริง "ความซับซ้อนทางกายภาพ" ของการจัดการ qubits กับ NMR นั้นแย่กว่านั้นมากสำหรับการยิ่งยวด qubits แต่เราไม่มีสูตรสำหรับความยากลำบากทางกายภาพที่เกี่ยวข้องกับnสำหรับทั้งสองกรณีnn

นี่คือขั้นตอนที่คุณต้องดำเนินการ:



FnFn

E

ตอนนี้คุณสามารถเห็นว่าทำไมคุณต้องมาที่นี่เพื่อถามคำถามและคำตอบไม่ได้อยู่ในตำราเรียนใด ๆ :

ขั้นตอนที่ 1ขึ้นอยู่กับประเภทของการนำไปใช้ (NMR, Photonics, SQUIDS ฯลฯ )
ขั้นตอนที่ 2นั้นยากมาก พลวัต decoherence ฟรีได้รับการจำลองโดยไม่ต้องใกล้เคียงทางกายภาพสำหรับ64 qubitsแต่ไม่ใช่ Markovian การเปลี่ยนแปลงไม่ใช่ perturbative กับ decoherence จะถูก จำกัด ในปัจจุบันจะ16 qubits
ขั้นตอนที่ 4ขึ้นอยู่กับอัลกอริทึม ดังนั้นจึงไม่มี "universal scaling" ของความซับซ้อนทางกายภาพแม้ว่าจะทำงานกับการใช้งานบางประเภท (เช่น NMR, Photonics, SQUIDs ฯลฯ )
ขั้นตอนที่ 5ขึ้นอยู่กับการเลือกรหัสแก้ไขข้อผิดพลาด

ดังนั้นเพื่อตอบคำถามสองข้อของคุณโดยเฉพาะ:

100101002100!100100

ขึ้นอยู่กับตัวเลือกของคุณในขั้นตอนที่ 1และไม่มีใครสามารถผ่านขั้นตอนที่ 1 ถึงขั้นตอนที่ 3ได้เพื่อให้ได้สูตรที่แม่นยำสำหรับความซับซ้อนทางกายภาพที่เกี่ยวข้องกับจำนวน qubits แม้สำหรับอัลกอริทึมเฉพาะ ดังนั้นนี่ยังเป็นคำถามเปิดที่ถูก จำกัด ด้วยความยากลำบากในการจำลองพลวัตระบบควอนตัมแบบเปิด

เรามีเหตุผลอะไรบ้างที่เชื่อว่ามันเป็นอดีตมากกว่าหรือน้อยกว่าไม่ใช่หลัง?

n!n100n


1
nρ(C2)nnρn

1
คุณหมายถึงอะไรโดย "พลศาสตร์ที่ไม่ จำกัด "? สนามเวกเตอร์ถูกกำหนดโดยพลศาสตร์ที่ประเมิน ณ จุดใด คำนวณบรรทัดฐานของอะไร (โดยใช้ฟิลด์เมตริกซ์ฟิชเชอร์) คุณหมายถึงคำนวณค่าบรรทัดฐานของสนามเวกเตอร์หรือไม่? มันอาจจะเป็นความคิดที่ดี แต่ถ้าเป็นสิ่งที่ฉันคิดว่าคุณหมายถึงซึ่งก็คือการมอง decoherence สำหรับเวลาที่น้อยที่สุดที่ t = 0 ฉันไม่รู้ว่าสิ่งนี้มีค่าเท่าไหร่เพราะใช้ เวลาสำหรับการตกแต่งภายในให้ถึงความแข็งแรงเต็มที่เนื่องจากความแข็งแรงของ decoherence นั้นมีลักษณะโดยฟังก์ชันตอบสนองการอาบน้ำซึ่งเป็นส่วนประกอบสำคัญของ t
user1271772

1
(Mn,g)nMnρTρMnr(ρ). ถ้าคุณต้องการ supremum ในทุกสถานะที่เป็นไปได้ สิ่งนี้ให้ขอบเขตที่หยาบมากของอัตราการกระจัดกระจายเนื่องจากเขตเวกเตอร์ที่นิยามพลวัต สิ่งนี้สามารถใช้สำหรับการ จำกัด ขอบเขต decoherence แม้ในเวลาที่มีขนาดใหญ่เนื่องจากอัตราที่ถูกผูกไว้
AHusain

4

ความซับซ้อนของวงจร

ฉันคิดว่าประเด็นแรกคือการเข้าใจความหมายของ 'การควบคุม' ระบบควอนตัม สำหรับสิ่งนี้มันอาจช่วยในการเริ่มคิดเกี่ยวกับกรณีคลาสสิก

n2n222n2n/nk2n

nϵO(n2)จากนั้นการควบคุมเครื่อง 1000-qubit อย่างเหมาะสมนั้นยากกว่าการควบคุมเครื่อง 10-qubit ถึง 10,000 เท่าในแง่ที่ว่าคุณต้องปกป้องมันจาก decoherence นานกว่านั้นใช้ประตูอื่น ๆ อีกมากมายเป็นต้น

decoherence

ติดตามความคิดเห็น

ลองพิจารณาอัลกอริทึมเฉพาะหรือวงจรเฉพาะ คำถามของฉันอาจได้รับการปรับปรุงใหม่ - มีข้อบ่งชี้ทางทฤษฎีหรือการปฏิบัติว่าปัญหา (วิศวกรรม) ของการป้องกันการเกิดเกล็ดในขณะที่เราเพิ่มจำนวนของวงจรเหล่านี้หรือไม่?

สิ่งนี้แบ่งออกเป็นสองระบอบ สำหรับอุปกรณ์ที่ควอนตัมขนาดเล็กก่อนที่จะแก้ไขข้อผิดพลาดที่คุณอาจจะบอกว่าเราอยู่ในระบอบการปกครอง NISQ คำตอบนี้น่าจะเกี่ยวข้องกับระบอบการปกครองนั้นมากที่สุด อย่างไรก็ตามเมื่ออุปกรณ์ของคุณมีขนาดใหญ่ขึ้นจะมีผลตอบแทนลดลง มันยากขึ้นเรื่อย ๆ ที่จะทำงานด้านวิศวกรรมให้สำเร็จเพื่อเพิ่ม qubits อีกสองสาม

pppp1%O(logϵ)ϵO(logϵ)ตัวประกอบสเกล สำหรับตัวเลขที่เฉพาะเจาะจงคุณอาจสนใจการคำนวณประเภทต่างๆที่ Andrew Steane ดำเนินการ: ดูที่นี่ (แม้ว่าตัวเลขอาจจะได้รับการปรับปรุงให้ดีขึ้นในตอนนี้)

สิ่งที่น่าสนใจจริงๆก็คือดูว่าค่าสัมประสิทธิ์ในความสัมพันธ์เหล่านี้เปลี่ยนไปอย่างไรเมื่อข้อผิดพลาดเกตของคุณใกล้เข้ามาและใกล้เคียงกับเกณฑ์การแก้ไขข้อผิดพลาดมากขึ้น ฉันไม่สามารถวางการคำนวณที่เหมาะสมได้ (ฉันแน่ใจว่า Andrew Steane ทำอย่างใดอย่างหนึ่ง ณ จุดหนึ่งอาจเป็นคำพูดที่ฉันไป) แต่พวกเขาก็ระเบิดได้แย่มากดังนั้นคุณต้องการปฏิบัติการ โดยมีอัตรากำไรขั้นต้นต่ำกว่าเกณฑ์

ที่กล่าวว่ามีสมมติฐานบางอย่างที่ต้องทำเกี่ยวกับสถาปัตยกรรมของคุณก่อนที่การพิจารณาเหล่านี้จะเกี่ยวข้อง ตัวอย่างเช่นต้องมีความเท่าเทียมกันอย่างเพียงพอ คุณต้องสามารถดำเนินการกับส่วนต่าง ๆ ของคอมพิวเตอร์พร้อมกันได้ หากคุณทำสิ่งเดียวในแต่ละครั้งข้อผิดพลาดจะสร้างขึ้นเร็วเกินไป นอกจากนี้คุณยังต้องการที่จะขยายกระบวนการผลิตของคุณโดยไม่ได้รับสิ่งที่เลวร้ายลง ดูเหมือนว่ายกตัวอย่างยิ่งยวด qubits จะค่อนข้างดีสำหรับเรื่องนี้ ประสิทธิภาพของมันส่วนใหญ่ขึ้นอยู่กับว่าคุณสามารถสร้างส่วนต่าง ๆ ของวงจรได้อย่างแม่นยำ คุณทำให้ถูกต้องสำหรับหนึ่งและคุณสามารถ "เพียงแค่" ทำซ้ำหลายครั้งเพื่อให้ qubits มากมาย


1
นี่คือสิ่งที่ฉันหมายถึง แต่เอาความซับซ้อนของอัลกอริทึมและมุ่งเน้นไปที่ความซับซ้อนของวิศวกรรม - โดยเฉพาะอย่างยิ่งการป้องกัน decoherence ลองพิจารณาอัลกอริทึมเฉพาะหรือวงจรเฉพาะ คำถามของฉันอาจได้รับการปรับปรุงใหม่ - มีข้อบ่งชี้ทางทฤษฎีหรือการปฏิบัติว่าปัญหา (วิศวกรรม) ของการป้องกันการเกิดเกล็ดในขณะที่เราเพิ่มจำนวนของวงจรเหล่านี้หรือไม่?
Keith Rush

@ KeithRush ตกลง! ตอนนี้ฉันเริ่มที่จะเข้าใจสิ่งที่คุณเป็นหลังจาก :) ในสาระสำคัญนี่คือความซับซ้อนในการคำนวณของความทนทานต่อความผิด - เวลาและพื้นที่ว่างที่จะได้รับจำนวน qubits ตรรกะที่มีคุณภาพสูง - และเป็นสิ่งที่ผู้คนได้ทำงาน ค่อนข้างระมัดระวัง ฉันจะพยายามขุดข้อมูลที่เกี่ยวข้องในวันพรุ่งนี้เว้นเสียแต่ว่ามีคนอื่นชนะฉัน
DaftWullie

2

mn

ดังนั้นในแง่หนึ่ง "ความเที่ยงตรง" อาจให้ค่าประมาณว่าหน่วยประมวลผลเกิดข้อผิดพลาดมากน้อยเพียงใด หากคุณใช้คอมพิวเตอร์ควอนตัมในการคำนวณพูดพลวัตปฏิกิริยาเคมีหรือปัญหาอื่น ๆ ที่สามารถใช้การซ้อนทับเพื่อให้ได้ควอนตัมสปีดอัพ (หรือแม้แต่ "ควอนตัมอำนาจสูงสุด" ในที่สุด) คุณอาจได้รับผลกระทบจากการกระจัดกระจาย สามารถมีส่วนร่วมในการดำเนินการปราศจากข้อผิดพลาด "Fidelity" อาจให้การประมาณข้อผิดพลาดไม่ว่าเราจะใช้ 1 qubit หรือพูดว่า 200 qubits คุณยังสามารถ "วิศวกร" ชาวมิลโตเนี่ยนเพื่อมอบความเที่ยงตรงสูงในกรณีอะเดียแบติกที่ซึ่งมีข้อผิดพลาดการรั่วไหลเกิดขึ้น

โปรดทราบว่าในทางปฏิบัติอัตราความผิดพลาด 99.5% + เป็นที่ต้องการอย่างมากเพื่อช่วยให้การแก้ไขข้อผิดพลาดมีประสิทธิภาพ อัตราความผิดพลาดอาจเป็นประเภทของการอ่านอิเล็กตรอนหมุนระหว่าง qubits กับความแม่นยำ ในกรณีเช่นนี้อัตราความผิดพลาดของ 99.5% หรือ 99.8% (ความเชื่อมั่นซิกม่าห้าหรือหก) จะต้องใช้ค่าใช้จ่ายน้อยลง (แก้ไขข้อผิดพลาด) เมื่อปรับขนาดระบบ

โดยการใช้ไซต์ของเรา หมายความว่าคุณได้อ่านและทำความเข้าใจนโยบายคุกกี้และนโยบายความเป็นส่วนตัวของเราแล้ว
Licensed under cc by-sa 3.0 with attribution required.