兄弟们,上一个系列大家多少有点不太喜欢,那今天上点不一样的。
来吧,直接整活~
首先咱们需要安装一下这两个第三方模块
requests >>> # pip install requests
parsel >>> # pip install parsel
不会安装的小伙伴,键盘按住win+r 在d出来的运行框 输入cmd 按确定,然后d出黑色的框框,即命令提示符窗口,输入上面的注释 ,然后按回车即可安装成功。
安装失败的话,看我首页置顶的几篇文章,有专门介绍安装模块的。
话说现在这么小的图片都有水印,真够影响体验的。。。
我们继续
实现步骤第一步:找数据对应的链接地址
第二步:python代码发送指定地址的请求
第三步:数据解析(筛选 过滤咱们需要的数据)
解析了每一个相册地址之后
- a 创建每一个相册的文件夹
- b 请求每一个相册详情页
(1) 发送请求
(2) 解析数据 提取图片链接
(3) 依次请求图片
第四步:保存数据
代码部分import requests
import parsel # 解析数据
import os
for page in range(1, 12):
response = requests.get(f'https://www.jdlingyu.com/tag/%e8%85%bf%e6%8e%a7/page/{page}')
# : 请求成功
# 静态页面的网页源代码
# 把静态页面的 字符串 变成可选的对象
selector = parsel.Selector(response.text)
# 3. 数据解析(筛选 过滤咱们需要的数据)
# re: 可以直接提取网页字符串数据
# css / xpath: 通过HTML标签进行提取
lis = selector.xpath("//ul[@class='b2_gap ']/li")
for li in lis:
# text(): 提取标签的文本内容
title = li.xpath('.//h2/a/text()').get()
print(f'-------------正在爬取{title}-------------')
# a 如果当前文件夹不存在 那么就新建一个
if not os.path.exists('./img/'+title):
os.mkdir('./img/'+title)
# 每一个相册所在的 网页地址
# 获取a标签属性内容 /@src
href = li.xpath('.//h2/a/@href').get()
# b 请求每一个相册详情页
data_html = requests.get(href).text
# 把字符串对象转变为 可选的selector对象
selector_2 = parsel.Selector(data_html)
img_p = selector_2.xpath('//div[@]/p')
for img in img_p:
# (2) 解析数据 提取图片链接
img_list = img_p.xpath('.//img/@src').getall()
for img_1 in img_list:
# content: 获取二进制数据 图片 视频 音频
# 文本: text
try:
img_data = requests.get(img_1).content
# 图片文件名
except:
continue
img_name = img_1.split('/')[-1]
with open(f'img\{title}\{img_name}', mode='wb') as f:
f.write(img_data)
print('下载完成:', img_name)
效果展示
这个分类总共是12页,我就不全部展示了,大家可以自己去试试!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)