​618购物节,我在老板眼皮底下摸鱼,用python逛淘宝、亚马逊

​618购物节,我在老板眼皮底下摸鱼,用python逛淘宝、亚马逊,第1张

概述事情是这样的下午两点,闷热的会议室空调稳稳的坐在那里好像睡着了领导的嘴在幻灯片刺眼亮光的映照下非常斗志昂扬的一张一合我敏锐的察觉到领导突然扬起的声调若有所思的对着他深深的点了点头然后,摸出了我的开发工具。。。亚马逊是全球最大的购物平台很多商品信息、 事情是这样的

下午两点,闷热的会议室

空调稳稳的坐在那里 好像睡着了

领导的嘴在幻灯片刺眼亮光的映照下

非常斗志昂扬的一张一合

我敏锐的察觉到领导突然扬起的声调

若有所思的对着他深深的点了点头

然后,摸出了我的开发工具。。。

亚马逊是全球最大的购物平台

很多商品信息、用户评价等等都是最丰富的。

今天,手把手带大家,越过亚马逊的反爬虫机制

爬取你想要的商品、评论等等有用信息

反爬虫机制

但是,我们想用爬虫来爬取相关的数据信息时

像亚马逊、TBao、JD这些大型的购物商城

他们为了保护自己的数据信息,都是有一套完善的反爬虫机制的

 

先试试亚马逊的反爬机制

我们用不同的几个Python爬虫模块,来一步步试探

最终,成功越过反爬机制。

一、urllib模块

代码如下:

# -*- Coding:utf-8 -*-import urllib.requestreq = urllib.request.urlopen('https://www.amazon.com')print(req.code)

返回结果:状态码:503。

分析:亚马逊将你的请求,识别为了爬虫,拒绝提供服务。

本着科学严谨的态度,我们拿万人上的百度试一下。

返回结果:状态码 200

分析:正常访问

 

那说明,urllib模块的请求,被亚马逊识别为爬虫,并拒绝提供服务

 

二、requests模块

1、requests直接爬虫访问

效果如下 ↓ ↓ ↓

代码如下 ↓ ↓ ↓

import requestsurl='https://www.amazon.com/KAVU-Rope-Bag-Denim-Size/product-revIEws/xxxxxx'r = requests.get(url)print(r.status_code)

返回结果:状态码:503。

分析:亚马逊同样拒绝了requsets模块的请求

将其识别为了爬虫,拒绝提供服务。

 

2、我们给requests加上cookie

加上请求cookie等相关信息

效果如下 ↓ ↓ ↓

代码如下 ↓ ↓ ↓

import requestsurl='https://www.amazon.com/KAVU-Rope-Bag-Denim-Size/product-revIEws/xxxxxxx'web_header={'User-Agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64; rv:88.0) Gecko/20100101 firefox/88.0','Accept': '*/*','Accept-Language': 'zh-CN,zh;q=0.8,zh-TW;q=0.7,zh-HK;q=0.5,en-US;q=0.3,en;q=0.2','Accept-EnCoding': 'gzip, deflate, br','Connection': 'keep-alive','cookie': '你的cookie值','TE': 'Trailers'}r = requests.get(url,headers=web_header)print(r.status_code)

 

返回结果:状态码:200

分析:返回状态码是200了,正常了,有点爬虫那味了。

 

3、检查返回页面

我们通过requests+cookie的方法,得到的状态码为200

目前至少被亚马逊的服务器正常提供服务了

我们将爬取的页面写入文本中,通过浏览器打开。

 

 

我踏马...返回状态是正常了,但返回的是一个反爬虫的验证码页面。

还是 被亚马逊给挡住了。

 三、selenium自动化模块

相关selenium模块的安装

pip install selenium

代码中引入selenium,并设置相关参数

import osfrom requests.API import optionsfrom selenium import webdriverfrom selenium.webdriver.Chrome.options import Options#selenium配置参数options = Options()#配置无头参数,即不打开浏览器options.add_argument('--headless')#配置Chrome浏览器的selenium驱动 Chromedriver="C:/Users/pacer/AppData/Local/Google/Chrome/Application/chromedriver.exe"os.environ["webdriver.Chrome.driver"] = Chromedriver#将参数设置+浏览器驱动组合browser = webdriver.Chrome(Chromedriver,Chrome_options=options)

 测试访问

url = "https://www.amazon.com"print(url)#通过selenium来访问亚马逊browser.get(url)

 

返回结果:状态码:200

分析:返回状态码是200了,访问状态正常,我们再看看爬到的网页信息。

 

将网页源码保存到本地

#将爬取到的网页信息,写入到本地文件fw=open('E:/amzon.HTML','w',enCoding='utf-8')fw.write(str(browser.page_source))browser.close()fw.close()

 

打开我们爬取的本地文件,查看 ,

我们已经成功越过了反爬虫机制,进入到了Amazon的首页

 结局

通过selenium模块,我们可以成功的越过

亚马逊的反爬虫机制。

下一篇:我们继续介绍,如何来爬取亚马逊的数十万商品信息及评论。

【有问题,请留言~~~】

推荐阅读

python实战

【python实战】前女友婚礼,python破解婚礼现场的WIFI,把名称改成了

【python实战】前女友发来加密的 “520快乐.pdf“,我用python破解开之后,却发现

【python实战】昨晚,我用python帮隔壁小姐姐P证件照 自拍,然后发现...

【python实战】女友半夜加班发自拍 python男友用30行代码发现惊天秘密

【python实战】python你TM太皮了——区区30行代码就能记录键盘的一举一动

【python实战】女神相册密码忘记了,我只用Python写了20行代码~~~

 

pygame系列文章【订阅专栏,获取完整源码】

一起来学pygame吧 游戏开发30例(二)——塔防游戏

一起来学pygame吧 游戏开发30例(四)——俄罗斯方块小游戏

渗透测试实战专栏

Windows AD/Exchange管理专栏

Linux高性能服务器搭建 

PowerShell自动化专栏

 

CSDN官方学习推荐 ↓ ↓ ↓

CSDN出的Python全栈知识图谱,太强了,推荐给大家!

总结

以上是内存溢出为你收集整理的​618购物节,我在老板眼皮底下摸鱼,用python逛淘宝、亚马逊全部内容,希望文章能够帮你解决​618购物节,我在老板眼皮底下摸鱼,用python逛淘宝、亚马逊所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/1184657.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存