要说Python最常用的领域,就是网络爬虫了,有些人学Python纯粹就是为了学习爬虫。
那么爬虫为什么会如此受欢迎呢?我们今天就来聊一聊Python爬虫。
爬虫这事情其实你几乎每天都干,爬虫分两种:通用爬虫和聚焦爬虫。
通用爬虫就是普通的上网,因为某些内容会被限制,所以需要使用聚焦爬虫。
爬虫需要用到一个模块,urllib或者requests因为urllib使用起来很复杂,所以我们使用requests来进行爬虫。
首先,requests不是Python标准库,需要手动安装:
接下来我们来开始实践:
第①行用import导入了requests模块。
第②~④行则指定了一个名为url的字典。
第⑤行调用了requests的get类用于清求url,url关键字可以指定url。
第⑥行输出了requests.get反回的结果,结果为(如果请求成话):
这只是requests入门的内容,详细内容我以后有机会介绍。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)