ในทฤษฎีการเข้ารหัส 'วิธีที่ดีรหัสคือ' หมายความว่ามีกี่ข้อผิดพลาดของช่องที่สามารถแก้ไขได้หรือดีกว่าระดับเสียงรบกวนสูงสุดที่รหัสสามารถจัดการได้
เพื่อให้ได้รหัสที่ดีกว่ารหัสนั้นได้รับการออกแบบโดยใช้ตัวอักษรขนาดใหญ่ (แทนที่จะเป็นเลขฐานสอง) จากนั้นรหัสจะดีถ้าสามารถจัดการกับ "สัญลักษณ์" ที่มีอัตราผิดพลาดจำนวนมาก
เหตุใดจึงไม่พิจารณาการโกง? ฉันหมายความว่าเราไม่ควรสนใจว่าจะเกิดอะไรขึ้นเมื่อเรา "แปล" สัญลักษณ์แต่ละตัวเป็นสตริงไบนารีหรือไม่ "rate of bit error" แตกต่างจาก rate ของ "symbol error" ยกตัวอย่างเช่นอัตราบิตข้อผิดพลาดไม่สามารถไปข้างต้นในขณะที่ 1/2 (ถ้าผมเข้าใจอย่างถูกต้อง) มีตัวอักษรขนาดใหญ่พอสัญลักษณ์ข้อผิดพลาดสามารถไปได้ถึง1-นี่คือเพราะเราเทียมจำกัด ช่องทางที่จะเปลี่ยนเฉพาะ "สัญลักษณ์" มากกว่าบิตหรือจะเป็นเพราะรหัสเป็นจริงดีกว่า?