python批量爬取猫咪图片

python批量爬取猫咪图片,第1张

概述不多说直接上代码 首先需要安装需要的库,安装命令如下 pip install BeautifulSoup pip install requests pip install urllib pip ins

不多说直接上代码

首先需要安装需要的库,安装命令如下

pip install BeautifulSoup

pip install requests

pip install urllib

pip install lxmlfrom bs4 import BeautifulSoup # 贵族名宠网页爬虫

import requests urllib.request 网址url = 'http://www.hengdadog.com/sale-1.HTML'def allpage():   获得所有网页    all_url = []    for i in range(1,8): 循环翻页次数        each_url = url.replace(url[-6],str(i))   替换        all_url.append(each_url)    return (all_url)   返回地址列表if __name__ == __main__':    img_url = allpage()   调用函数    for url in img_url:         获得网页源代码        print(url)        requ = requests.get(url)        req = requ.text.encode(requ.enCoding).decode()        HTML = BeautifulSoup(req,lxml)        t = 0         选择目标url        img_urls = HTML.find_all(img)        for k  img_urls:            img = k.get(src')   图片            (img)            name = str(k.get(alt'))   名字,这里的强制类型转换很重要            type(name)             先本地新建一下文件夹,保存图片并且命名            path = F:\CAT\'   路径            file_name = path + name + .jpg            imgs = requests.get(img)      存储入文件                                                                  try:                urllib.request.urlretrIEve(img,file_name)   打开图片地址,下载图片保存在本
except: print("error")

运行效果:

 上面代码有不少缺陷,比如需要手动创建目录以及判断目录是否存在,下载没有提示,于是做了些优化:

import BeautifulSoup   贵族名宠网页爬虫 osif os.path.exists(F:\CAT'):判断目录是否存在,存在则跳过,不存在则创建    passelse:    os.mkdir()  保存图片并且命名            path =  路径                  file_name = path + name +  打开图片地址,下载图片保存在本地,                正在下载图片到F:\CAT目录······)            ")

打包成EXE文件:

进入文件目录输入如下命令

pyinstaller -F get_cat.py

 

总结

以上是内存溢出为你收集整理的python批量爬取猫咪图片全部内容,希望文章能够帮你解决python批量爬取猫咪图片所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1190174.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-03
下一篇 2022-06-03

发表评论

登录后才能评论

评论列表(0条)

保存