Python开发中爬虫使用代理proxy抓取网页的方法示例

Python开发中爬虫使用代理proxy抓取网页的方法示例,第1张

概述本文实例讲述了Python开发中爬虫使用代理proxy抓取网页的方法。分享给大家供大家参考,具体如下:

本文实例讲述了Python开发中爬虫使用代理proxy抓取网页的方法。分享给大家供大家参考,具体如下:

代理类型(proxy):透明代理 匿名代理 混淆代理和高匿代理. 这里写一些Python爬虫使用代理的知识,还有一个代理池的类. 方便大家应对工作中各种复杂的抓取问题。

urllib 模块使用代理

urllib/urllib2使用代理比较麻烦,需要先构建一个ProxyHandler的类,随后将该类用于构建网页打开的opener的类,再在request中安装该opener.

代理格式是"http://127.0.0.1:80",如果要账号密码是"http://user:[email protected]:80".

proxy="http://127.0.0.1:80"# 创建一个ProxyHandler对象proxy_support=urllib.request.ProxyHandler({'http':proxy})# 创建一个opener对象opener = urllib.request.build_opener(proxy_support)# 给request装载openerurllib.request.install_opener(opener)# 打开一个urlr = urllib.request.urlopen('http://youtube.com',timeout = 120)

requests 模块 使用代理

requests使用代理要比urllib简单多了…这里以单次代理为例. 多次的话可以用session一类构建.

如果需要使用代理,你可以通过为任意请求方法提供 proxIEs 参数来配置单个请求:

import requestsproxIEs = { "http": "http://127.0.0.1:3128","https": "http://127.0.0.1:2080",}r=requests.get("http://youtube.com",proxIEs=proxIEs)print r.text

你也可以通过环境变量 http_PROXY 和 httpS_PROXY 来配置代理。

export http_PROXY="http://127.0.0.1:3128"export httpS_PROXY="http://127.0.0.1:2080"python>>> import requests>>> r=requests.get("http://youtube.com")>>> print r.text

若你的代理需要使用http Basic Auth,可以使用 http://user:password@host/ 语法:

proxIEs = {  "http": "http://user:[email protected]:3309/",}

python的代理使用非常简单, 最重要的是要找一个网络稳定可靠的代理。

更多关于Python相关内容可查看本站专题:《Python Socket编程技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串 *** 作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录 *** 作技巧汇总》

希望本文所述对大家Python程序设计有所帮助。

总结

以上是内存溢出为你收集整理的Python开发中爬虫使用代理proxy抓取网页的方法示例全部内容,希望文章能够帮你解决Python开发中爬虫使用代理proxy抓取网页的方法示例所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/1201535.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-04
下一篇 2022-06-04

发表评论

登录后才能评论

评论列表(0条)

保存