เอนโทรปีเป็นคุณลักษณะของเป็นตัวแปรสุ่ม ไฟล์ที่ได้รับมีศูนย์ entropy เนื่องจากมันคง เอนโทรปีมีความหมายในหลาย ๆ สถานการณ์ที่ไม่มีช่องสัญญาณและคุณสามารถนำไปใช้กับชุดสุ่มพูดไฟล์ WAV ที่สร้างจากแหล่งที่กำหนด ในกรณีนี้ของคุณคือไฟล์ WAV ทั้งหมดx
ไฟล์ WAV จริง (ไม่รวมส่วนหัว) สามารถคิดได้ว่าถูกสร้างขึ้นโดยแหล่งที่มาของ Markovian บางแห่ง แหล่งที่มานี้สร้างเสียงแอมพลิจูด ("ตัวอย่าง") ตามลำดับแต่ละอันขึ้นอยู่กับเสียงที่มาก่อน หลังจากรันกระบวนการเป็นเวลานานเอนโทรปีของแต่ละตัวอย่าง (ถูกต้องมากขึ้นเงื่อนไขเอนโทรปีของตัวอย่างก่อนหน้า) จะใกล้เคียงกับค่า จำกัด บางอย่างซึ่งเรากำหนดให้เป็นเอนโทรปีของแหล่งที่มา เอนโทรปีของตัวอย่างคือคูณจำนวนนั้น (ในขีด จำกัด ; ยิ่งแม่นยำยิ่งขึ้นเรากำลังวัดค่าเอนโทรปีแบบมีเงื่อนไข) Lempel และ Ziv แสดงให้เห็นว่าถ้าเอนโทรปีของตัวอย่างเป็นบิตดังนั้นอัลกอริธึมของพวกมันจะบีบตัวอย่างไปยังNNHNHN+o(N)บิตที่มีความน่าจะเป็นสูง (ความน่าจะเป็นสูงกว่าตัวอย่าง) การบีบอัด Lempel – Ziv ค่อนข้างเป็นที่นิยมในทางปฏิบัติเช่นใช้ในgzip
รูปแบบที่นิยม
เนื่องจากผลลัพธ์ของ Lempel และ Ziv นี้ทำให้เอนโทรปีของแหล่งข้อมูลสามารถประมาณได้โดยการบีบตัวอย่างลำดับที่ยาวนานโดยใช้อัลกอริทึม Lempel – Ziv สิ่งนี้ไม่ได้ประเมินเอนโทรปีของตัวอย่างที่เฉพาะเจาะจงซึ่งไม่ใช่แนวคิดที่กำหนดไว้อย่างดี (ลำดับที่คงที่มีศูนย์เอนโทรปี) แต่เป็นเอนโทรปีของแหล่งที่มาที่สร้างมันขึ้นมา
แนวคิดที่เกี่ยวข้องคือเอนโทรปีของอัลกอริทึมที่เรียกว่าเป็นความซับซ้อน Kolmogorov มันเป็นความยาวของโปรแกรมที่สั้นที่สุดที่สร้างไฟล์ของคุณ ปริมาณนี้เหมาะสมสำหรับแต่ละไฟล์ ในกรณีของไฟล์ที่สร้างขึ้นโดยแหล่งสุ่มทฤษฎีบท Lempel – Ziv แสดงให้เห็นว่าเอนโทรปีของอัลกอริทึมของไฟล์ถูกล้อมรอบด้วยความน่าจะเป็นสูงโดยเอนโทรปีของแชนนอน น่าเสียดายที่เอนโทรปีของอัลกอริทึมไม่สามารถคำนวณได้ดังนั้นจึงเป็นแนวคิดทางทฤษฎีมากกว่า
เพื่อให้ภาพสมบูรณ์ฉันขอแนะนำให้อ่านกระดาษของ Shannon เรื่องPrediction และ entropy ของภาษาอังกฤษที่พิมพ์ออกมาเพื่อหาวิธีอื่นในการประมาณค่าเอนโทรปีของแหล่งข้อมูล