这段时间在用python处理网页抓取这块,互联网很多网页的编码格式都不一样,大体上是GBK,GB2312,UTF-8,等待。我们在获取
网页的的数据后,先要对网页的编码进行判断,才能把抓取的内容的编码统一转换为我们能够处理的编码。比如beautiful soup内部的编码就是unicode的编码。
下面介绍两种python 判断网页编码的方法:
#encoding=utf-8
#python 判断网页编码
import urllib
f = urllib.urlopen(‘http://xxx.com’).info()
print f.getparam(‘charset’)
import chardet #你需要安装一下chardet第3方判断编码的模块
data = urllib.urlopen(‘http://xxx.com’).read()
print chardet.detect(data)
python福利教程领取方式:
1、点赞+评论(勾选“同时转发”)
2、关注小编。并私信回复关键字【19】
(一定要私信哦~点击我的头像就能看到私信按钮了)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)