python如何实现网络爬虫

python如何实现网络爬虫,第1张

概述python如何实现网络爬虫

python实现网络爬虫的方法:1、使用request库中的get方法,请求url的网页内容;2、【find()】和【find_all()】方法可以遍历这个HTML文件,提取指定信息。

@H_502_10@python实现网络爬虫的方法:

@H_502_10@第一步:爬取

使用request库中的get方法,请求url的网页内容

编写代码

[root@localhost demo]# touch demo.py[root@localhost demo]# vim demo.py
#web爬虫学习 -- 分析#获取页面信息 #输入:url#处理:request库函数获取页面信息,并将网页内容转换成为人能看懂的编码格式#输出:爬取到的内容 import requests def getHTMLText(url):    try:        r = requests.get( url, timeout=30 )        r.raise_for_status()    #如果状态码不是200,产生异常        r.enCoding = 'utf-8'    #字符编码格式改成 utf-8        return r.text    except:        #异常处理        return " error " url = "http://www.baIDu.com"print( getHTMLText(url) )
[root@localhost demo]# python3 demo.py

@H_502_10@第二步:分析

使用bs4库中BeautifulSoup类,生成一个对象。find()和find_all()方法可以遍历这个HTML文件,提取指定信息。

编写代码

[root@localhost demo]# touch demo1.py[root@localhost demo]# vim demo1.py#web爬虫学习 -- 分析#获取页面信息 #输入:url#处理:request库获取页面信息,并从爬取到的内容中提取关键信息#输出:打印输出提取到的关键信息 import requestsfrom bs4 import BeautifulSoupimport re def getHTMLText(url):    try:        r = requests.get( url, timeout=30 )        r.raise_for_status()    #如果状态码不是200,产生异常        r.enCoding = 'utf-8'    #字符编码格式改成 utf-8        return r.text    except:        #异常处理        return " error " def findHTMLText(text):    soup = BeautifulSoup( text, "HTML.parser" )    #返回BeautifulSoup对象    return soup.find_all(string=re.compile( '百度' )) #结合正则表达式,实现字符串片段匹配 url = "http://www.baIDu.com"text = getHTMLText(url)        #获取HTML文本内容res = findHTMLText(text)    #匹配结果 print(res)        #打印输出
[root@localhost demo]# python3 demo1.py

@H_502_10@相关免费学习推荐:python视频教程

总结

以上是内存溢出为你收集整理的python如何实现网络爬虫全部内容,希望文章能够帮你解决python如何实现网络爬虫所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1183956.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存