Python爬虫实战(3) | 爬取一周的天气预报信息

Python爬虫实战(3) | 爬取一周的天气预报信息,第1张

概述今天我们来爬取中国气象局官网的天气预报信息,我们不但要获取今天的天气信息,还要获取未来6天的天气预报信息分析网页结构我们在设计网络爬虫程序之前,首先要分析网页的代码结构这里我放上官网地址:http://www.weather.com.cn/我们这次要获取的是北京市的天气预报信息不同

今天我们来爬取中国气象局官网的天气预报信息,我们不但要获取今天的天气信息,还要获取未来6天的天气预报信息

分析网页结构

我们在设计网络爬虫程序之前,首先要分析网页的代码结构

这里我放上官网地址:

http://www.weather.com.cn/

我们这次要获取的是北京市的天气预报信息

不同的城市他们的域名不一样(图中画圈地方),大家可以各自尝试一下

我们按 F12 进入网页代码查看器,当前页面的代码结构如下图

注意,除了今天,未来六天的天气预报中将气温分成了最高气温和最低气温两个

我们可以看到:

当天的天气预报信息存放在<p>标签中,当天的天气情况存放在<p>标签中,其中最高气温存放在<span>标签中,最低气温存放在<i>标签中

代码实现

既然知道了我们要获取的信息的所在标签中,那么就开始我们的爬取过程吧!

首先导入我们的库文件
import requestsimport bs4
将当前网页下载下来

注意:因为网页中含有中文字符,所以我们在下载网页源码之前先看下它的编码格式,输入当前网页的编码格式 print(res.enCoding)

可以看到是 ISO-8859-1 编码格式,所以我们将网页源码获取之后要对其进行编码 encode('ISO-8859-1')

def get_web(url):    header = {"User-Agent": "Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36 Edg/91.0.864.59"}    res = requests.get(url, headers=header, timeout=5)    # print(res.enCoding)    content = res.text.encode('ISO-8859-1')    return content
从网页源码中获取所需信息

将网页下载获取下来之后,我们使用 bs4 模块来进行解析并获取我们所需要的数据信息

soup = bs4.BeautifulSoup(content, 'lxml')

我们先来将日期获取下来,并存放到 List_weather 列表中

我们在for循环语句里面添加了一个条件判断语句是因为除了日期在

标签中,还有很多信息也存放在这个标签中。

但是日期是在前6行,所以在这里我们只需要获取前六行数据就行了

    '''    存放日期    '''    List_day = []    i = 0    day_List = soup.find_all('h1')    for each in day_List:        if i <= 6:            List_day.append(each.text.strip())            i += 1

接着将天气情况(也就是阴、雷阵雨这种)获取下来,存放到 List_weather 列表中

    '''    存放天气情况    '''    List_weather = []    weather_List = soup.find_all('p', class_='wea')    for i in weather_List:        List_weather.append(i.text)

之后将气温也获取下来,存放在 List_tem 中

这里我们需要注意的是:

当天气温只有一个,而未来的天气有最高气温和最低气温

所以在这里我们需要将未来气温的数据(最高气温和最低气温)当成一个列表来存放进 List_tem 列表中

    '''    存放温度:最高温度和最低温度    '''    tem_List = soup.find_all('p', class_='tem')    i = 0    List_tem = []    for each in tem_List:        if i == 0:            List_tem.append(each.i.text)            i += 1        elif i > 0:            List_tem.append([each.span.text, each.i.text])            i += 1

最后我们将风力数据获取下来,存放进 List_wind 列表中

    '''    存放风力    '''    List_wind = []    wind_List = soup.find_all('p', class_='win')    for each in wind_List:        List_wind.append(each.i.text.strip())

大致输出结果就是这个样子:

最后别忘了将上面的这些数据作为函数的返回值,传到我们的数据保存函数中

return List_day, List_weather, List_tem, List_wind
将数据保存到本地上

获取数据之后,我们需要将数据保存到本地上,这里我才用的是将记事本的形式,你们也可以保存到 excel 表上

注意:在for循环里面我添加了条件判断语句,就是因为在当天日期中的气温只有一个,而在未来的天气情况中气温却分为了最高气温和最低气温

所以条件判断语句的作用就是使得当天的气温只写进当天天气情况中,而未来几天的气温有最高和最低气温

    item = 0    with open('weather.txt', 'a+', enCoding='utf-8') as file:        for i in range(0, 7):            if item == 0:                file.write(day[i]+':\t')                file.write(weather[i]+'\t')                file.write("今日气温:"+tem[i]+'\t')                file.write("风力:"+wind[i]+'\t')                file.write('\n')                item += 1            elif item > 0:                file.write(day[i]+':\t')                file.write(weather[i] + '\t')                file.write("最高气温:"+tem[i][0]+'\t')                file.write("最低气温:"+tem[i][1] + '\t')                file.write("风力:"+wind[i]+'\t')                file.write('\n')

最后来看一下我们的运行结果吧!

源代码

源代代码如下:

# -*- Coding:utf-8 -*-import requestsimport bs4def get_web(url):    header = {"User-Agent": "Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36 Edg/91.0.864.59"}    res = requests.get(url, headers=header, timeout=5)    # print(res.enCoding)    content = res.text.encode('ISO-8859-1')    return contentdef parse_content(content):    soup = bs4.BeautifulSoup(content, 'lxml')    '''    存放天气情况    '''    List_weather = []    weather_List = soup.find_all('p', class_='wea')    for i in weather_List:        List_weather.append(i.text)    '''    存放日期    '''    List_day = []    i = 0    day_List = soup.find_all('h1')    for each in day_List:        if i <= 6:            List_day.append(each.text.strip())            i += 1    # print(List_day)    '''    存放温度:最高温度和最低温度    '''    tem_List = soup.find_all('p', class_='tem')    i = 0    List_tem = []    for each in tem_List:        if i == 0:            List_tem.append(each.i.text)            i += 1        elif i > 0:            List_tem.append([each.span.text, each.i.text])            i += 1    # print(List_tem)    '''    存放风力    '''    List_wind = []    wind_List = soup.find_all('p', class_='win')    for each in wind_List:        List_wind.append(each.i.text.strip())    # print(List_wind)    return List_day, List_weather, List_tem, List_winddef get_content(url):    content = get_web(url)    day, weather, tem, wind = parse_content(content)    item = 0    with open('weather.txt', 'a+', enCoding='utf-8') as file:        for i in range(0, 7):            if item == 0:                file.write(day[i]+':\t')                file.write(weather[i]+'\t')                file.write("今日气温:"+tem[i]+'\t')                file.write("风力:"+wind[i]+'\t')                file.write('\n')                item += 1            elif item > 0:                file.write(day[i]+':\t')                file.write(weather[i] + '\t')                file.write("最高气温:"+tem[i][0]+'\t')                file.write("最低气温:"+tem[i][1] + '\t')                file.write("风力:"+wind[i]+'\t')                file.write('\n')if __name__ == "__main__":    url = "http://www.weather.com.cn/weather/101010100.sHTML"    print("正在爬取数据...........................")    get_content(url)    print("爬取完毕!!")
总结

以上是内存溢出为你收集整理的Python爬虫实战(3) | 爬取一周的天气预报信息全部内容,希望文章能够帮你解决Python爬虫实战(3) | 爬取一周的天气预报信息所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1158537.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-01
下一篇 2022-06-01

发表评论

登录后才能评论

评论列表(0条)

保存