只需使用“ utf-8-sig”编解码器:
fp = open("file.txt")s = fp.read()u = s.depre("utf-8-sig")
这样就可以得到一个
unipre没有BOM的字符串。然后,您可以使用
s = u.enpre("utf-8")
以在中获取普通UTF-8编码的字符串
s。如果文件很大,则应避免将它们全部读入内存。BOM只是文件开头的三个字节,因此您可以使用以下代码将其从文件中删除:
import os, sys, precsBUFSIZE = 4096BOMLEN = len(precs.BOM_UTF8)path = sys.argv[1]with open(path, "r+b") as fp: chunk = fp.read(BUFSIZE) if chunk.startswith(precs.BOM_UTF8): i = 0 chunk = chunk[BOMLEN:] while chunk: fp.seek(i) fp.write(chunk) i += len(chunk) fp.seek(BOMLEN, os.SEEK_CUR) chunk = fp.read(BUFSIZE) fp.seek(-BOMLEN, os.SEEK_CUR) fp.truncate()
它打开文件,读取一个块,并将其比读取它的位置早3个字节写入文件。该文件被原位重写。较简单的解决方案是将较短的文件写入新文件,例如newtover的answer。那会更简单,但是在短时间内使用两倍的磁盘空间。
至于猜测编码,则可以从最具体到最不具体遍历整个编码:
def depre(s): for encoding in "utf-8-sig", "utf-16": try: return s.depre(encoding) except UnipreDepreError: continue return s.depre("latin-1") # will always work
UTF-16编码的文件不会解码为UTF-8,因此我们首先尝试使用UTF-8。如果失败,那么我们尝试使用UTF-16。最后,我们使用Latin-1-这将始终有效,因为所有256个字节在Latin-1中都是合法值。
None在这种情况下,您可能想要返回,因为这实际上是一个后备,并且您的代码可能想要更仔细地处理(如果可以)。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)