python爬虫基础用法

python爬虫基础用法,第1张

python爬虫基础用法

前言:利用python当中的request是库来获取相关网站内容

1 requests库

在python当中用于网络爬虫的库是有很多的,简单介绍如下

请求库解析库存储库框架urllibbeautifulsouppymysqlScrapyrequestspyquerypymongoCrawleyseleniumlxmlredisdumpPortiaaiohttptesserocrnewspaperpython-goosecola

requests库是基于urllib库,在使用上较简单,便捷,上手友好。

2 使用方法

1)requests库安装:pip install requests
2)明确请求的url,需要的参数params(以字典的形式表示),headers(请求的头)
3)通过requests.get()来获得请求的内容,response.encoding用来设置请求内容的编码方式,response.text 以字符串的形式来输出请求内容,response.content以字节流的形式来输出请求内容。

3 应用案例

古诗文网的诗人数据爬取:

import requests
import json
import pandas as pd

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.198 Safari/537.36',"cookie": "wxopenid=defoaltid; Hm_lvt_9007fab6814e892d3020a64454da5a55=1635823892,1635837412,1635837707,1635838370; Hm_lpvt_9007fab6814e892d3020a64454da5a55=1635838946"}
page = 1
for i in range(1,21):
    url = f"https://app.gushiwen.cn/api/author/Default10.aspx?c=%E4%B8%8D%E9%99%90&page={i}&token=gswapi"
    res = requests.get(url, headers=headers)
    res.encoding = 'utf-8'
    # 请求的为json数据格式,通过json.loads来进行解析
    s = json.loads(res.text)['authors']
    for item in s:
    	print(item)
    	#利用requests请求图片数据,并存储
    	url = 'https://song.gushiwen.cn/authorImg/' + item['pic'] + '.jpg'
    	r = requests.request('get',url)
    	with open(path+item['pic'] + '.jpg','wb') as f:
            f.write(r.content)
        f.close()

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5157374.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-18
下一篇 2022-11-18

发表评论

登录后才能评论

评论列表(0条)

保存