ฉันได้รับข้อความที่เข้ารหัส แต่ฉันไม่รู้ว่าใช้ชุดอักขระอะไร มีวิธีในการกำหนดการเข้ารหัสไฟล์ข้อความด้วย Python หรือไม่? ฉันจะตรวจจับการเข้ารหัส / เพจรหัสของไฟล์ข้อความที่เกี่ยวข้องกับ C # ได้อย่างไร
ฉันได้รับข้อความที่เข้ารหัส แต่ฉันไม่รู้ว่าใช้ชุดอักขระอะไร มีวิธีในการกำหนดการเข้ารหัสไฟล์ข้อความด้วย Python หรือไม่? ฉันจะตรวจจับการเข้ารหัส / เพจรหัสของไฟล์ข้อความที่เกี่ยวข้องกับ C # ได้อย่างไร
คำตอบ:
ได้อย่างถูกต้องตรวจสอบเวลาการเข้ารหัสทั้งหมดเป็นไปไม่ได้
(จากชาร์ตคำถามที่พบบ่อย :)
อย่างไรก็ตามการเข้ารหัสบางอย่างได้รับการปรับให้เหมาะสมกับภาษาเฉพาะและภาษานั้นไม่ได้สุ่ม ลำดับตัวละครบางตัวปรากฏขึ้นตลอดเวลาในขณะที่ลำดับอื่น ๆ ไม่มีความหมาย บุคคลที่พูดภาษาอังกฤษได้อย่างคล่องแคล่วและเปิดหนังสือพิมพ์และพบว่า "txzqJv 2! dasd0a QqdKjvz" จะรับรู้ได้ทันทีว่าไม่ใช่ภาษาอังกฤษ (แม้ว่าจะประกอบด้วยตัวอักษรภาษาอังกฤษทั้งหมด) ด้วยการศึกษาข้อความ“ ทั่วไป” จำนวนมากอัลกอริธึมคอมพิวเตอร์สามารถจำลองความคล่องแคล่วเช่นนี้และคาดเดาเกี่ยวกับภาษาของข้อความ
มีไลบรารีchardetที่ใช้การศึกษานั้นเพื่อพยายามตรวจจับการเข้ารหัส chardet เป็นพอร์ตของรหัสตรวจจับอัตโนมัติใน Mozilla
นอกจากนี้คุณยังสามารถใช้UnicodeDammit มันจะลองวิธีการต่อไปนี้:
ตัวเลือกอื่นสำหรับการทำงานการเข้ารหัสคือการใช้ libmagic (ซึ่งเป็นรหัสหลัง คำสั่งไฟล์ ) มีความหลากหลายของการผูกหลามที่มีอยู่
การรวมงูหลามที่อาศัยอยู่ในต้นไม้ต้นกำเนิดไฟล์นั้นมีอยู่ในแพ็คเกจ debian ของ python-magic (หรือpython3-magic ) มันสามารถตรวจสอบการเข้ารหัสของไฟล์โดยทำ:
import magic
blob = open('unknown-file', 'rb').read()
m = magic.open(magic.MAGIC_MIME_ENCODING)
m.load()
encoding = m.buffer(blob) # "utf-8" "us-ascii" etc
มีแพ็คเกจ pip python-magic ที่มีชื่อเหมือนกัน แต่เข้ากันไม่ได้บน pypi ที่ใช้libmagic
เช่นกัน นอกจากนี้ยังสามารถรับการเข้ารหัสโดยทำ:
import magic
blob = open('unknown-file', 'rb').read()
m = magic.Magic(mime_encoding=True)
encoding = m.from_buffer(blob)
libmagic
chardet
ย่อมเป็นทางเลือกที่ทำงานได้ และข้อมูลที่ยอดเยี่ยมเกี่ยวกับแพ็คเกจที่แตกต่างชื่อpython-magic
! ฉันแน่ใจ
file
ไม่ค่อยดีนักในการระบุภาษามนุษย์ในไฟล์ข้อความ มันยอดเยี่ยมสำหรับการระบุรูปแบบคอนเทนเนอร์ต่าง ๆ แม้ว่าบางครั้งคุณต้องรู้ว่ามันหมายถึงอะไร ("เอกสาร Microsoft Office" อาจหมายถึงข้อความ Outlook และอื่น ๆ )
open()
: UnicodeDecodeError: 'utf-8' codec can't decode byte 0xfc in position 169799: invalid start byte
. แฟ้มการเข้ารหัสตามเสียงเรียกของมี:set fileencoding
latin1
errors='ignore'
, binary
การส่งออกของโค้ดตัวอย่างที่เป็นประโยชน์น้อย
กลยุทธ์การเข้ารหัสบางส่วนโปรดอย่าใส่เครื่องหมายในการลิ้มรส:
#!/bin/bash
#
tmpfile=$1
echo '-- info about file file ........'
file -i $tmpfile
enca -g $tmpfile
echo 'recoding ........'
#iconv -f iso-8859-2 -t utf-8 back_test.xml > $tmpfile
#enca -x utf-8 $tmpfile
#enca -g $tmpfile
recode CP1250..UTF-8 $tmpfile
คุณอาจต้องการตรวจสอบการเข้ารหัสโดยการเปิดและอ่านไฟล์ในรูปแบบของลูป ... แต่คุณอาจต้องตรวจสอบขนาดไฟล์ก่อน:
encodings = ['utf-8', 'windows-1250', 'windows-1252' ...etc]
for e in encodings:
try:
fh = codecs.open('file.txt', 'r', encoding=e)
fh.readlines()
fh.seek(0)
except UnicodeDecodeError:
print('got unicode error with %s , trying different encoding' % e)
else:
print('opening the file with encoding: %s ' % e)
break
นี่คือตัวอย่างของการอ่านและการรับค่าการchardet
ทำนายการเข้ารหัสการอ่านn_lines
จากไฟล์ในกรณีที่มีขนาดใหญ่
chardet
ยังให้ความน่าจะเป็น (เช่นconfidence
) ของการคาดคะเนการเข้ารหัสของมัน (ยังไม่ได้ดูว่ามันเกิดขึ้นได้อย่างไร) ซึ่งกลับมาพร้อมคำทำนายจากchardet.predict()
มันดังนั้นคุณสามารถทำงานได้ถ้าคุณชอบ
def predict_encoding(file_path, n_lines=20):
'''Predict a file's encoding using chardet'''
import chardet
# Open the file as binary data
with open(file_path, 'rb') as f:
# Join binary lines for specified number of lines
rawdata = b''.join([f.readline() for _ in range(n_lines)])
return chardet.detect(rawdata)['encoding']
def predict_encoding(file_path, n=20): ... skip ... and then rawdata = b''.join([f.read() for _ in range(n)])
ลองใช้ฟังก์ชั่นนี้ใน Python 3.6 ทำงานได้อย่างสมบูรณ์แบบด้วย "ascii", "cp1252", "utf-8", "unicode" encodings ดังนั้นนี่คือ upvote แน่นอน
# Function: OpenRead(file)
# A text file can be encoded using:
# (1) The default operating system code page, Or
# (2) utf8 with a BOM header
#
# If a text file is encoded with utf8, and does not have a BOM header,
# the user can manually add a BOM header to the text file
# using a text editor such as notepad++, and rerun the python script,
# otherwise the file is read as a codepage file with the
# invalid codepage characters removed
import sys
if int(sys.version[0]) != 3:
print('Aborted: Python 3.x required')
sys.exit(1)
def bomType(file):
"""
returns file encoding string for open() function
EXAMPLE:
bom = bomtype(file)
open(file, encoding=bom, errors='ignore')
"""
f = open(file, 'rb')
b = f.read(4)
f.close()
if (b[0:3] == b'\xef\xbb\xbf'):
return "utf8"
# Python automatically detects endianess if utf-16 bom is present
# write endianess generally determined by endianess of CPU
if ((b[0:2] == b'\xfe\xff') or (b[0:2] == b'\xff\xfe')):
return "utf16"
if ((b[0:5] == b'\xfe\xff\x00\x00')
or (b[0:5] == b'\x00\x00\xff\xfe')):
return "utf32"
# If BOM is not provided, then assume its the codepage
# used by your operating system
return "cp1252"
# For the United States its: cp1252
def OpenRead(file):
bom = bomType(file)
return open(file, 'r', encoding=bom, errors='ignore')
#######################
# Testing it
#######################
fout = open("myfile1.txt", "w", encoding="cp1252")
fout.write("* hi there (cp1252)")
fout.close()
fout = open("myfile2.txt", "w", encoding="utf8")
fout.write("\u2022 hi there (utf8)")
fout.close()
# this case is still treated like codepage cp1252
# (User responsible for making sure that all utf8 files
# have a BOM header)
fout = open("badboy.txt", "wb")
fout.write(b"hi there. barf(\x81\x8D\x90\x9D)")
fout.close()
# Read Example file with Bom Detection
fin = OpenRead("myfile1.txt")
L = fin.readline()
print(L)
fin.close()
# Read Example file with Bom Detection
fin = OpenRead("myfile2.txt")
L =fin.readline()
print(L) #requires QtConsole to view, Cmd.exe is cp1252
fin.close()
# Read CP1252 with a few undefined chars without barfing
fin = OpenRead("badboy.txt")
L =fin.readline()
print(L)
fin.close()
# Check that bad characters are still in badboy codepage file
fin = open("badboy.txt", "rb")
fin.read(20)
fin.close()
ฉันแค่เลือกใช้file
คำสั่งlinux shell ขึ้นอยู่กับแพลตฟอร์มของคุณ สิ่งนี้ใช้ได้กับฉันตั้งแต่ฉันใช้มันในสคริปต์ที่ทำงานบนเครื่องลินุกซ์ของเรา
เห็นได้ชัดว่านี่ไม่ใช่ทางออกหรือคำตอบในอุดมคติ แต่สามารถปรับเปลี่ยนให้เหมาะกับความต้องการของคุณ ในกรณีของฉันฉันแค่ต้องตรวจสอบว่าไฟล์เป็น UTF-8 หรือไม่
import subprocess
file_cmd = ['file', 'test.txt']
p = subprocess.Popen(file_cmd, stdout=subprocess.PIPE)
cmd_output = p.stdout.readlines()
# x will begin with the file type output as is observed using 'file' command
x = cmd_output[0].split(": ")[1]
return x.startswith('UTF-8')
สิ่งนี้อาจมีประโยชน์
from bs4 import UnicodeDammit
with open('automate_data/billboard.csv', 'rb') as file:
content = file.read()
suggestion = UnicodeDammit(content)
suggestion.original_encoding
#'iso-8859-1'
โดยหลักการแล้วเป็นไปไม่ได้ที่จะกำหนดการเข้ารหัสของไฟล์ข้อความในกรณีทั่วไป ไม่เลยไม่มีห้องสมุด Python มาตรฐานที่จะทำเพื่อคุณ
หากคุณมีความรู้เฉพาะเพิ่มเติมเกี่ยวกับไฟล์ข้อความ (เช่นเป็น XML) อาจมีฟังก์ชั่นห้องสมุด
หากคุณรู้เนื้อหาของไฟล์คุณสามารถลองถอดรหัสด้วยการเข้ารหัสหลาย ๆ ไฟล์และดูว่าไฟล์ใดหายไป โดยทั่วไปแล้วไม่มีวิธีเนื่องจากไฟล์ข้อความเป็นไฟล์ข้อความและสิ่งเหล่านั้นโง่;)
เว็บไซต์นี้มีรหัสหลามการตระหนักถึง ASCII, การเข้ารหัสด้วย boms และ utf8 ไม่มี BOM: https://unicodebook.readthedocs.io/guess_encoding.html ไฟล์อ่านลงในอาร์เรย์ไบต์ (ข้อมูล): http://www.codecodex.com/wiki/Read_a_file_into_a_byte_array นี่คือตัวอย่าง ฉันอยู่ใน osx
#!/usr/bin/python
import sys
def isUTF8(data):
try:
decoded = data.decode('UTF-8')
except UnicodeDecodeError:
return False
else:
for ch in decoded:
if 0xD800 <= ord(ch) <= 0xDFFF:
return False
return True
def get_bytes_from_file(filename):
return open(filename, "rb").read()
filename = sys.argv[1]
data = get_bytes_from_file(filename)
result = isUTF8(data)
print(result)
PS /Users/js> ./isutf8.py hi.txt
True
chardet
อ้างอิง ดูดีแม้ว่าจะช้าไปนิด