随着生活水平的提高和快节奏生活的发展。汽车开始慢慢成为人们的必需品,浏览各种汽车网站便成为购买合适、喜欢车辆的前提。例如汽车之家网站中就有最新的报价和图片以及汽车的相关内容,是提供信息最快最全的中国汽车网站。本文介绍python爬虫爬取汽车之家网站上的图片的思路和具体演示代码。
一、爬取汽车之家网站上的图片思路分析
1、分析页面,确认图片的url是否在网页源码。
2、确认是静态数据后,先找到总的ul标签,在找它里面的li标签,最后在img标签里面的src属性,即可获得想要的图片url地址。
3、通过切割图片url的方式获取图片名字。
4、完成图片命名后,使用os模块确定图片存放的路径。
二、爬取汽车之家网站上的图片具体代码
# piplines管道代码 from urllib import request import os class VehicleHomePipeline: def process_item(self, item, spider): pic_url = item['pic_url'] # 得到图片名字 pic_name = pic_url.split('__')[-1] # 得到xxx.jpg # os.path.dirname(__file__) 结果 D:PycharmProjectsspiderday21vehicle_homevehicle_home # 创建图片存放路径 xxxvehicle_homeresult_pic pic_path = os.path.join(os.path.dirname(__file__), 'result_pic') # 下载图片 xxxvehicle_homeresult_picxxx.jpg request.urlretrieve(pic_url, pic_path + '/' + pic_name) return item # 爬虫代码 import scrapy from day21.vehicle_home.vehicle_home.items import VehicleHomeItem class VehPicSpider(scrapy.Spider): name = 'veh_pic' allowed_domains = ['car.autohome.com.cn'] base_url = 'https://car.autohome.com.cn/photolist/series/18/p{}/' start_urls = [base_url.format(1)] def parse(self, response): # 获取图片标签列表 pic_lists = response.xpath('//ul[@id="imgList"]/li') for pic in pic_lists: pic_url = pic.xpath('./a/img/@src').extract_first() # 上述获取的url需要进一步补全 pic_url = response.urljoin(pic_url) item = VehicleHomeItem() item['pic_url'] = pic_url print(item) yield item # 翻页逻辑 for page in range(2, 3): next_url = self.base_url.format(page) yield scrapy.Request(next_url)
以上就是python爬虫爬取汽车之家网站上的图片的思路和具体演示代码,大家可以套用代码灵活使用哟~更多python爬虫实战:python爬虫实战教程。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)