class LoginSpIDer(SpIDer): name = 'example.com' start_urls = ['http://www.example.com/users/login.PHP'] def parse(self,response): return [FormRequest.from_response(response,formdata={'username': 'john','password': 'secret'},callback=self.after_login)] def after_login(self,response): # check login succeed before going on if "authentication Failed" in response.body: self.log("Login Failed",level=log.ERROR) return # continue scraPing with authenticated session...解决方法 打开终端并确保安装了scrapy.
> scrapy外壳
>来自scrapy.http导入FormRequest
> request = FormRequest(url =’http://www.example.com/users/login.PHP’,formdata= {‘username’:’john’,’password’:’secret’,})
信息:
> Scrapy 1.0.0
总结以上是内存溢出为你收集整理的python – 如何从命令行使用Scrapy传递表单数据?全部内容,希望文章能够帮你解决python – 如何从命令行使用Scrapy传递表单数据?所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)