สำหรับปัญหามากมายอัลกอริธึมที่มีความซับซ้อนเชิงซีมโทติคที่ดีที่สุดนั้นมีปัจจัยคงที่ที่ใหญ่มากซึ่งถูกซ่อนไว้โดยสัญกรณ์ O ขนาดใหญ่ สิ่งนี้เกิดขึ้นในการคูณเมทริกซ์, การคูณจำนวนเต็ม (โดยเฉพาะ, อัลกอริทึมการคูณจำนวนเต็ม O (n log n) ล่าสุดของฮาร์วีย์และแวนเดอร์โฮเวน), เครือข่ายการเรียงลำดับเชิงลึกและการค้นหาผู้เยาว์กราฟ อัลกอริทึมดังกล่าวบางครั้งเรียกว่าอัลกอริทึม Galactic
โปรดทราบว่าสำหรับอัลกอริธึมอื่น ๆ เช่นการจัดเรียงทั่วไปและการเพิ่มจำนวนเต็มอัลกอริธึมเป็นที่รู้จักกันดีกับความซับซ้อนเชิงซ้อนที่เหมาะสมที่สุดและปัจจัยคงที่เล็ก ๆ
มีการวิจัยอะไรบ้างในการแยกอัลกอริธึมเดิมออกจากอัลกอริธึมหลังจากมุมมองเชิงทฤษฎี
ฉันรู้ว่าค่าคงที่ซ่อนอยู่มักถูกละเว้นเพื่อซ่อนความแตกต่างระหว่างการคำนวณแบบต่าง ๆ อย่างไรก็ตามฉันมั่นใจว่าภายใต้โมเดลที่แตกต่างหลากหลายอัลกอริทึม Galactic เหล่านี้จะช้ากว่าอัลกอริธึมที่แย่กว่า asymptotically สำหรับอินพุตขนาดหนึ่งพันล้าน ความแตกต่างนั้นไม่ละเอียดในบางกรณี มันถูกทำอย่างเข้มงวด?
ตัวอย่างเช่นเราสามารถประดิษฐ์แบบจำลองการคำนวณที่ง่ายมากเช่นเครื่อง von Neumann ด้วย ISA ที่ง่ายมากจากนั้นใช้อัลกอริทึมและ จำกัด เวลาทำงานกับค่าคงที่ชัดเจน สิ่งนี้ทำมาเพื่ออัลกอริทึมที่หลากหลายหรือไม่?