京东的验证码和反爬都很烦人吧?那又怎样,照样轻松爬取京东数据

京东的验证码和反爬都很烦人吧?那又怎样,照样轻松爬取京东数据,第1张

概述目标爬取京东商城上iPhoneX用户评论数据;使用jieba对评论数据进行分词处理;

目标

爬取京东商城上iPhone X用户评论数据;@H_419_6@ 使用jIEba对评论数据进行分词处理;@H_419_6@ 使用wordcloud绘制词云图。@H_419_6@

进群:548377875   即可获取数十套pdf哦!

 @H_419_6@

然后我们会发现这个接口地址是可以直接访问的,并不需要post参数,直接get就行,后面发现,连header都不需要设置,这样问题就很简单了。@H_419_6@

 @H_419_6@

接口地址返回的数据不是标准的Json格式,我们需要手动处理下。@H_419_6@ 1.去掉前面的‘fetchJsON_comment98vv56725(’;@H_419_6@ 2.去掉末尾的‘);’;@H_419_6@ 3.Json包加载数据处理就行了。@H_419_6@

 @H_419_6@

 @H_419_6@ 循环获取每个页面的评论数据,保存到本地。@H_419_6@

绘制词云

绘制词云主要用到两个包,一个是jIEba,用于文本分词的,一个是wordcloud,用于绘制最后的词云。参数比较多,大家可以直接访问jIEba+wordcloud去查看。

背景图片@H_419_6@

 @H_419_6@ 最后效果如下@H_419_6@

 @H_419_6@ 词云@H_419_6@

代码部分

# -*- Coding:utf-8 -*-

import requests

import Json

import jIEba

from scipy.misc import imread

from wordcloud import WordCloud,StopWORDS,ImagecolorGenerator

import matplotlib.pyplot as plt

def jd_spIDer(page):

url = 'https://sclub.jd.com/comment/productPageComments.action?callback=fetchJsON_comment98vv56693&productID=5089253&score=0&sortType=5&page=%d&pageSize=10&isShadowSku=0&fold=1'%(page)

#用于存储单页评论,每页评论保存一次

comment = ''

#无需设置header,直接访问就行了

response = requests.get(url)

data = unicode(response.content,'GBK').encode('utf-8')

'''

接口地址返回的不是标准Json数据,需要进行处理

去掉头部的‘fetchJsON_comment98vv56693(’和‘);’两部分

然后再用Json包读取数据就可以了

'''

data = data.split('(',1)[1]#根据(进行切片一次处理,取第二部分

data = data[0:len(data)-2]#然后去掉后面的)和;

data_Json = Json.loads(str(data))['comments']

#循环读取每条评论,通过换行符连接起来

for i in List(range(len(data_Json))):

comment = comment+data_Json[i]['content'].encode('utf-8')+' '

print '****Page %d has been saved****'%(page)

return comment

#将读取的数据保存到本地txt文件

def save_comments(comments):

with open('comments.txt','a') as f:

f.write(comments)

'''

由于京东限制了,只展示前100页评论

循环99次就好了,后面返回的都是空页面

'''

for page in List(range(99)):

page = page+1

comments = jd_spIDer(page)

save_comments(comments)

print '****jd_spIDer@Awesome_Tang****'

'''

绘制词云部分

'''

back_color = imread('apple.png') # 解析该图片

wc = WordCloud(background_color='white',# 背景颜色

max_words=1000,# 最大词数

mask=back_color,# 以该参数值作图绘制词云,这个参数不为空时,wIDth和height会被忽略

max_Font_size=100,# 显示字体的最大值

Font_path="/Users/tangwenpan/Downloads/simhei.ttf",# 解决显示口字型乱码问题

random_state=42,# 为每个词返回一个PIL颜色

# wIDth=1000,# 图片的宽

# height=860 #图片的长

)

# 打开保存的评论数据

text = open('comments.txt').read()

def word_cloud(texts):

words_List = []

word_generator = jIEba.cut(texts,cut_all=False) # 返回的是一个迭代器

for word in word_generator:

if len(word) > 1: #去掉单字

words_List.append(word)

return ' '.join(words_List)

text = word_cloud(text)

wc.generate(text)

# 基于彩色图像生成相应彩色

image_colors = ImagecolorGenerator(back_color)

# 显示图片

plt.imshow(wc)

# 关闭坐标轴

plt.axis('off')

# 绘制词云

plt.figure()

plt.imshow(wc.recolor(color_func=image_colors))

plt.axis('off')

# 保存图片

wc.to_file('comment.png')

print 'comment.png has bee saved!'

一直觉得词云是个蛮好玩的东西,想自己也做下玩玩,所以这次也就是想着先做点东西出来,代码部分可能就比较粗糙了,后期有时间再改改。

总结

以上是内存溢出为你收集整理的京东的验证码和反爬都很烦人吧?那又怎样,照样轻松爬取京东数据全部内容,希望文章能够帮你解决京东的验证码和反爬都很烦人吧?那又怎样,照样轻松爬取京东数据所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1208812.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-04
下一篇 2022-06-04

发表评论

登录后才能评论

评论列表(0条)

保存