爬虫的基础库requests库
requests库
功能强大的爬取网页信息的第三方库,可以进行自动爬取HTML页面及自动网络请求提交的 *** 作。
requests库的主要方法:
requests对象:
爬取实例:
#导入Requests
import requests
#爬取url
url =https://www.douban.com/
#定义获取Text内容
def getHTMLText(url:
try:
#设置请求头(豆瓣设有反爬机制)
headers ={
User-Agent: 'Moilla/5.0 (X11; Linux x86 64) AppleWebKt/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36'
}
response = requests.get(url, headers=headers, timeout=200); #设置超时
response.raise for status0
response.encoding = utf-8'
return response.text
except
return 产生异常”
#name是当前模块名,当模块被直接运行时模块名为_main_
#这句话的意思就是,当模块被直接运行时,以下代码块将被运行,当模块
#是被导入时,代码块不被运行
#相当于入口
ifname == main_:
print(getHTMLText(urll)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)