Python基础之爬取豆瓣图书信息

Python基础之爬取豆瓣图书信息,第1张

概述所谓爬虫,就是帮助我们从互联网上获取相关数据并提取有用的信息。在大数据时代,爬虫是数据采集非常重要的一种手段,比人工进行查询,采集数据更加方便,更加快捷。刚开始学爬虫时,一般从静态,结构比较规范的网页 概述

所谓爬虫,就是帮助我们从互联网上获取相关数据并提取有用的信息。在大数据时代,爬虫是数据采集非常重要的一种手段,比人工进行查询,采集数据更加方便,更加快捷。刚开始学爬虫时,一般从静态,结构比较规范的网页入手,然后逐步深入。今天以爬取豆瓣最受关注图书为例,简述Python在爬虫方面的初步应用,仅供学习分享使用,如有不足之处,还请指正。

涉及知识点

如果要实现爬虫,需要掌握的Pyhton相关知识点如下所示:

requests模块:requests是python实现的最简单易用的http库,建议爬虫使用requests。关于requests模块的相关内容,可参考官方文档及简书上的说明BeautifulSoup模块:Beautiful Soup 是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航,查找,修改文档的方式。关于BeautifulSoup的更多内容,可参考官方文档。Json模块:JsON(JavaScript Object Notation) 是一种轻量级的数据交换格式,易于人阅读和编写。使用 JsON 函数需要导入 Json 库。关于Json的更多内容,可参考菜鸟笔记。re模块:re模块提供了与 Perl 语言类似的正则表达式匹配 *** 作。关于re模块的更多内容,可参考官方文档。目标页面

本例中爬取的信息为豆瓣最受关注图书榜信息,共10本当前最受欢迎图书。

爬取页面URL【Uniform Resource Locator,统一资源定位器】:https://book.douban.com/chart?subcat=F

爬取页面截图,如下所示:

爬取数据步骤1. 分析页面

通过浏览器提供的开发人员工具(快捷键:F12),可以方便的对页面元素进行定位,经过定位分析,本次所要获取的内容,包括在ul【class=chart-dashed-List】标签内容,每一本书,都对应一个li元素,是本次爬取的目标,如下所示:

 

 每一本书,对应一个li【class=media clearfix】元素,书名为对应a【class=fleft】元素,描述为P【class=subject-abstract color-gray】标签元素内容,具体到每一本书的的详细内容,如下所示:

 

2. 下载数据

如果要分析数据,首先要进行下载,获取要爬取的数据信息,在Python中爬取数据,主要用requests模块,如下所示:

 1 def get_data(url): 2     """ 3     获取数据 4     :param url: 请求网址 5     :return:返回请求的页面内容 6      7     # 请求头,模拟浏览器,否则请求会返回418 8     header = { 9         'User-Agent': Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML,like Gecko) '10                       Chrome/70.0.3538.102 Safari/537.36 Edge/18.18363'}11     resp = requests.get(url=url,headers=header)   发送请求12     if resp.status_code == 200:13          如果返回成功,则返回内容14         return resp.text15     else16          否则,打印错误状态码,并返回空17         print(返回状态码:,resp.status_code)18         return ''

注意:在刚开始写爬虫时,通常会遇到“http Error 418”,请求网站的服务器端会进行检测此次访问是不是人为通过浏览器访问,如果不是,则返回418错误码。检测请求头是常见的反爬虫策略,所为为了模拟浏览器访问,需要构造请求header,然后即可正常访问。

正常浏览器访问成功的状态码为200,及请求标头中User-Agent。如下所示:

 

3. 解析数据

当获取到数据后,需要进行数据分析,才能得到想要的内容。requests模块获取到的内容为HTML源码字符串,可以通过BeautifulSoup装载成对象,然后进行数据获取,如下所示:

def parse_data(HTML: str = None):    解析数据    :param HTML:    :return:返回书籍信息列表 7     bs = BeautifulSoup(HTML,features=HTML.parser')   转换页面内容为BeautifulSoup对象 8     ul = bs.find(name=ul',attrs={classchart-dashed-List'})   获取列表的父级内容 9     lis = ul.find_all(li': re.compile(^media clearfix')})   获取图书列表10     books = []   定义图书列表11     for li in lis:12          循环遍历列表13         strong_num = li.find(name=strongfleft green-num-Box 获取书籍排名标签14         book_num = strong_num.text   编号15         h2_a = li.find(name=afleft 获取书名标签16         book_name = h2_a.text   获取书名17         p_info = li.find(name=p"subject-abstract color-gray"})   书籍说明段落标签18 19         book_info_str = p_info.text.strip()   获取书籍说明,并 去前后空格20          book_info_List = book_info_str.split('/',-1) # 分隔符21         books.append(22             {book_num': book_num,book_name': book_name,1)">book_info': book_info_str})   将内容添加到列表23 24     return books
4. 保存数据

解析到目标数据后,需要进行数据持久化,以便后续进一步分析。持久化通常可以保存到数据库中,本例为了简单,保存到本地Json文件中,如下所示:

1  save_data(res_List):2     3     保存数据4     :param res_List: 保存的内容文件5     :return:6     7     with open(books.Jsonwutf-8) as f:8         res_List_Json = Json.dumps(res_List,ensure_ascii=False)9         f.write(res_List_Json)

本例完整代码,如下所示:

import Json   Json 包,用于读取解析,生成Json格式的文件内容 2 import requests   请求包  用于发起网络请求 3 from bs4 import BeautifulSoup   解析页面内容帮助包 4 import re   正则表达式 5  6  7  8      9 10 11 12     13     14     header =15         16                       17     resp = requests.get(url=url,1)">18     19         21     22         23         24         ''25 26 27 28     29 30 31 32     33     bs = BeautifulSoup(HTML,1)">34     ul = bs.find(name=35     lis = ul.find_all(36     books = []  37     38         39         strong_num = li.find(name=40         book_num = strong_num.text  41         h2_a = li.find(name=42         book_name = h2_a.text  43         p_info = li.find(name=44 45         book_info_str = p_info.text.strip()  46         47 48             {49 50      books51 52 53 54     55 56 57 58     59     with open(60         res_List_Json = Json.dumps(res_List,1)">61         f.write(res_List_Json)62 63 64   开始执行,调用函数65 url = https://book.douban.com/chart?subcat=F66 HTML = get_data(url=url)   获取数据67 books = parse_data(HTML)   解析数据68 save_data(books)   保存数据69 done')
VIEw Code

本例爬取内容,保存到books.Json文件中,如下所示:

[  { 3     ": 1" 4     心灵侦探城塚翡翠 5     相泽沙呼 / 2021-4 / 人民文学出版社 / 79.00元 / 精装" 6   },1)">2 9     平原上的摩西10     双雪涛 / 2021-4 / 北京日报出版社 / 59 / 精装11 12 13     314     眩晕15     [德国] 温弗里德·塞巴尔德 / 2021-4 / 广西师范大学出版社 / 52.00元 / 精装16 17 18     419     一把刀,千个字20     王安忆 / 2021-4 / 人民文学出版社 / 精装22 23     524     字母表谜案25     大山诚一郎 / 2021-5 / 河南文艺出版社 / 42.00 / 平装26 629     星之继承者30     [英] 詹姆斯·P.霍根 / 2021-4 / 新星出版社 / 58.00元 / 精装31 32 33     734     美丽黑暗35     [法] 法比安·韦尔曼  编 / [法] 凯拉斯科多  绘 / 2021-4 / 后浪丨中国纺织出版社 / 88.00元 / 精装36 37 38     839     40     [日] 夏目漱石 / 2021-3-30 / 江苏凤凰文艺出版社 / 45.00元 / 精装41 42 43     944     奇迹唱片行45     [英] 蕾秋·乔伊斯 / 2021-6-11 / 北京联合出版公司 / 48 / 平装46 48     1049     派对恐惧症50     [美]卡门•玛丽亚•马查多 / 2021-5 / 世纪文景/上海人民出版社 / 59.00元 / 精装51   }52 ]
VIEw Code备注

望岳

唐·杜甫

岱宗夫如何?齐鲁青未了。
造化钟神秀,阴阳割昏晓。
荡胸生曾云,决眦入归鸟。( 曾 同:层)
会当凌绝顶,一览众山小。  总结

以上是内存溢出为你收集整理的Python基础之爬取豆瓣图书信息全部内容,希望文章能够帮你解决Python基础之爬取豆瓣图书信息所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1183739.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-02
下一篇 2022-06-02

发表评论

登录后才能评论

评论列表(0条)

保存