Python开发技巧:scrapy-redis爬虫如何发送POST请求

Python开发技巧:scrapy-redis爬虫如何发送POST请求,第1张

概述同学们在使用scrapy-redis分布式爬虫框架开发的时候会发现,其默认只能发送GET请求,不能直接发送POST请求,这就导致我们在开发一些爬虫工具的时候出现问题,那么如何才能让scrapy-redis发送POST请求呢?scrapy-redis爬虫这里我们以美团网站为例,先来说一说需求,也就是说美团POST请求

同学们在使用scrapy-redis分布式爬虫框架开发的时候会发现,其默认只能发送GET请求,不能直接发送POST请求,这就导致我们在开发一些爬虫工具的时候出现问题,那么如何才能让scrapy-redis发送POST请求呢?

scrapy-redis爬虫

这里我们以美团网站为例,先来说一说需求,也就是说美团POST请求形式。我们以获取某个地理坐标下,所有店铺类别列表请求为例。获取所有店铺类别列表时,我们需要构造一个包含位置坐标经纬度等信息的表单数据,以及为了向下一层parse方法传递的一些必要数据,即Meta,然后发起一个POST请求。
url,请求地址,即url是固定的,如下所示:

url=‘http://i.waimai.meituan.com/openh5/poi/filterconditions?_=1557367197922’

url最后面的13位数字是时间戳,实际应用时用time模块生成一下就好了。

表单数据:

Meta数据:

Meta数据不是必须的,但是,如果你在发送请求时,有一些数据需要向下一层parse方法(解析爬虫返回的response的方法)中传递的话,就可以构造这一数据,然后作为参数传递进request中。

源码分析

采集店铺类别列表时需要发送怎样一个POST请求在上面已经说明了,那么,在scrapy-redis框架中,这个POST该如何来发送呢?我相信,打开我这篇博文的读者都是用过scrapy的,用scrapy发送POST肯定没问题(重写start_requests方法即可),但scrapy-redis不同,scrapy-redis框架只会从配置好的redis数据库中读取起始url,所以,在scrapy-redis中,就算重写start_requests方法也没用。怎么办呢?我们看看源码。

我们知道,scrapy-redis与scrapy的一个很大区别就是,scrapy-redis不再继承SpIDer类,而是继承RedisSpIDer类的,所以,RedisSpIDer类源码将是我们分析的重点,我们打开RedisSpIDer类,看看有没有类似于scrapy框架中的start_requests、make_requests_from_url这样的方法。RedisSpIDer源码如下:

很遗憾,在RedisSpIDer类中没有找到类似start_requests、make_requests_from_url这样的方法,而且,RedisSpIDer的源码也太少了吧,不过,从第一行我们可以发现RedisSpIDer继承了RedisMinxin这个类,所以我猜RedisSpIDer的很多功能是从父类继承而来的(拼爹的RedisSpIDer)。继续查看RedisMinxin类源码。RedisMinxin类源码太多,这里就不将所有源码贴出来了,不过,惊喜的是,在RedisMinxin中,真找到了类似于start_requests、make_requests_from_url这样的方法,如:start_requests、next_requests、make_request_from_data等。有过scrapy使用经验的童鞋应该都知道,start_requests方法可以说是构造一切请求的起源,没分析scrapy-redis源码之前,谁也不知道scrapy-redis是不是和scrapy一样(后面打断点的方式验证过,确实一样,话说这个验证有点多余,因为源码注释就是这么说的),不过,还是从start_requests开始分析吧。start_requests源码如下:

直接把所有任务丢给next_requests方法,继续:

上面next_requests方法中,关键的就是那个while循环,每一次循环都调用了一个make_request_from_data方法,从函数名可以函数,这个方法就是根据从redis中读取从来的数据,实例化一个request,那不就是我们要找的方法吗?进入make_request_from_data方法一探究竟:

因为scrapy-redis默认值发送GET请求,所以,在这个make_request_from_data方法中认为data只包含一个url,但如果我们要发送POST请求,这个data包含的东西可就多了,我们上面美团POST请求说明中就说到,至少要包含url、form_data。所以,如果我们要发送POST请求,这里必须改,make_request_from_data方法最后调用的make_requests_from_url是scrapy中的SpIDer中的方法,不过,我们也不需要继续往下看下去了,我想诸位都也清楚了,要发送POST请求,重写这个make_request_from_data方法,根据传入的data,实例化一个request返回就好了。

代码实例

明白上面这些东西后,就可以开始写代码了。修改源码吗?不,不存在的,改源码可不是好习惯。我们直接在我们自己的SpIDer类中重写make_request_from_data方法就好了:

搞清楚原理之后,就是这么简单。万事俱备,只欠东风——将url,form_data,Meta存储到redis中。另外新建一个模块实现这一部分功能:

在启动scrapy-redis之前,运行一下这一模块即可。如果有很多POI(地理位置兴趣点),循环遍历每一个POI,生成request_data,push到redis中。

本文来自千锋教育,转载请注明出处。

总结

以上是内存溢出为你收集整理的Python开发技巧:scrapy-redis爬虫如何发送POST请求全部内容,希望文章能够帮你解决Python开发技巧:scrapy-redis爬虫如何发送POST请求所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1188378.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存