อัลกอริทึม DEFLATE ยอดนิยมใช้การเข้ารหัส Huffman ที่ด้านบนของ Lempel-Ziv
โดยทั่วไปถ้าเรามีแหล่งข้อมูลแบบสุ่ม (= 1 บิตเอนโทรปี / บิต) ไม่มีการเข้ารหัสรวมถึง Huffman มีแนวโน้มที่จะบีบอัดโดยเฉลี่ย ถ้า Lempel-Ziv นั้น "สมบูรณ์แบบ" (ซึ่งเป็นแนวทางสำหรับแหล่งเรียนส่วนใหญ่เมื่อความยาวสิ้นสุดลง) การเข้ารหัสโพสต์ด้วย Huffman จะไม่ช่วยอะไรเลย แน่นอน Lempel-Ziv ยังไม่สมบูรณ์แบบอย่างน้อยก็มีความยาว จำกัด และยังมีความเหลือเฟืออยู่บ้าง
นี่คือความซ้ำซ้อนที่เหลืออยู่ซึ่งการเข้ารหัส Huffman บางส่วนกำจัดและปรับปรุงการบีบอัด
คำถามของฉันคือ: เหตุใดจึงเหลือความซ้ำซ้อนที่เหลืออยู่นี้สำเร็จโดยการเข้ารหัส Huffman และไม่ใช่ LZ คุณสมบัติของ Huffman เทียบกับ LZ ทำให้สิ่งนี้เกิดขึ้นได้อย่างไร จะเรียกใช้ LZ อีกครั้ง (นั่นคือเข้ารหัสข้อมูลที่บีบอัด LZ ด้วย LZ เป็นครั้งที่สอง) ทำสิ่งที่คล้ายกันหรือไม่ ถ้าไม่ทำไมล่ะ ในทำนองเดียวกันก่อนจะบีบอัดกับ Huffman แล้วหลังจากนั้นกับ LZ ทำงานและถ้าไม่ทำไม?
UPDATE: เป็นที่ชัดเจนว่าแม้หลังจาก LZ ความซ้ำซ้อนบางอย่างจะยังคงอยู่ หลายคนทำในจุดนั้น สิ่งที่ไม่ชัดเจนคือ: เหตุใด Huffman จึงเหลือความซ้ำซ้อนที่เหลืออยู่จึงดีกว่า LZ มีอะไรแปลกใหม่เกี่ยวกับมันในทางตรงกันข้ามกับความซ้ำซ้อนของแหล่งกำเนิดดั้งเดิมที่ LZ ทำงานได้ดีกว่า Huffman