从零基础开始教你爬取全网妹子图!难道你就不想在室友面前装逼?

从零基础开始教你爬取全网妹子图!难道你就不想在室友面前装逼?,第1张

概述1.1获取页面信息 代码截图1.2发现获取页面内容出现乱码 运行获取页面源码乱码截图

@H_419_1@1.1 获取页面信息

代码截图

@H_419_1@1.2 发现获取页面内容出现乱码

@H_419_1@运行获取页面源码乱码截图

@H_419_1@1.3 分析页面信息得原页面编码为:`gb2312`,修改获取内容编码

分析页码源码乱码

解决源码乱码情况

@H_419_1@2.1 主页面源码已经获取到了,那我们到网页里看看源码的效果图吧

@H_419_1@进群:548377875   即可获取数十套pdf哦!

爬取页面web端效果图

有没有让你看的怦然心动,我是觉得清纯的妹纸挺好的。

@H_419_1@2.2 爬取方式:简单 or 困难

爬取方式分析

@H_419_1@3.1 从简单开始:首先我们要获取这个页面上的所有妹纸图的链接(一个妹纸有多张艺术照),然后向网站发送相应链接的请求,浏览器内按F12,进入开发者模式,小箭头选择想要的信息所在处。

页面分析获取内容所在

@H_419_1@3.2 分析我们拿到的页面源码,采用正则表达式获取相关内容

源码分析采用什么正则匹配

@H_419_1@3.3 正则表达式获取首页所有妹纸图的网址和简介

1'''

2author : 极简XksA

3data : 2018.8.8

4goal : 分类爬取beautiful picture,保存到本地

5'''

6import re

7import requests

8# 爬取主页面:http://www.27270.com/ent/meinvtupian/

9

10# 1. 发送http请求,获取主页面内容

11r_url = 'http://www.27270.com/ent/meinvtupian/'

12HTML_code = requests.get(r_url)

13# 2. 设置页面编码为 gb2312

14HTML_code.enCoding = 'gb2312'

15HTML_text = HTML_code.text

16# 3.1 获取链接

17pattern01 = r' '

18beautiful_url = re.findall(pattern01,HTML_text)

19print(beautiful_url)

20print(len(beautiful_url))

21# 3.2 获取简介

22pattern02 = r''

23beautiful_words = re.findall(pattern02,HTML_text)

24print(beautiful_words)

25print(len(beautiful_words))

@H_419_1@运行结果:

230

@H_419_1@3.4 请求单个页面,正则匹配图片url

@H_419_1@3.4.1 页面分析

单组照片页面分析

@H_419_1@3.4.2 代码实现

1for i in range(len(beautiful_url)):

2 # 4.1 请求单个页面

3 picture_codes = requests.get(beautiful_url[i])

4 picture_codes.enCoding = 'gb2312'

5 picture_words = picture_codes.text

6 # 4.2 在页面中找到图片url

7 # print(picture_words)

8 pattern03 = r''%beautiful_words[i]

9 picture_url = re.findall(pattern03,picture_words)

10 print(picture_url)

@H_419_1@3.4.3 运行结果

1# 这里获取的并不是全部,而是每个妹纸的第一张图

2['http://t2.hddhhn.com/uploads/tu/201803/9999/f45065ed61.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/9126579004.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/320ab4622e.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/1fde4d7a1f.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/ef21eaa896.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/e1697062d3.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/419c69bec1.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/4302dc643c.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/df7ff261b0.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/b7b870636f.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/11ec3cf8b2.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/10a0a11a02.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/53e4e2717c.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/7431e6e040.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/228cf34f62.jpg'],

3['http://t2.hddhhn.com/uploads/tu/201807/9999/a9b7d62201.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/ba91f1e60e.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/76da610fa9.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/3ed260e5ae.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/3d93b5fd09.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/280277b310.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/b69662e2d9.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/fbf7a9178b.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/3f9a20a7da.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/691c12fa18.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/249d3362c4.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/29ea1b5fb7.jpg'],['http://t2.hddhhn.com/uploads/tu/201807/9999/db087ab231.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/1a9b5f8522.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/9b597acb26.jpg']

@H_419_1@3.5 每个妹纸页面内翻页,爬取所有的图片地址

@H_419_1@3.5.1 页面分析

页面翻页分析

我们只用获取网页内代码即可实现页面翻转(即跳转url)

@H_419_1@3.5.2 代码实现

1# 4.3 翻页爬取

2# 4.3.1 获取翻页链接

3pattern04 = r".*?"

4pictures_url = re.findall(pattern04,picture_words)

5print(pictures_url)

6print(pattern03)

7# 4.3.2 翻页,获取图片地址

8for j in range(len(pictures_url)):

9 other_picture_url = r'http://www.27270.com/ent/meinvtupian/2018/{0}'.format(pictures_url[j])

10 pictures_codes = requests.get(other_picture_url)

11 pictures_codes.enCoding = 'gb2312'

12 pictures_words = pictures_codes.text

13 picture_02 = re.findall(pattern03,pictures_words)

14 picture_address.append(picture_02)

15print(picture_address)

@H_419_1@3.5.3 运行结果

1['261848_2.HTML','261848_3.HTML','261848_4.HTML','261848_5.HTML','261848_6.HTML','261848_7.HTML','261848_8.HTML']

2

3[['http://t2.hddhhn.com/uploads/tu/201803/9999/f45065ed61.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/88e0742045.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/c8d4eba79b.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/78e50b4522.jpg'],

4['http://t2.hddhhn.com/uploads/tu/201803/9999/c435bee80c.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/c8411d490e.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/0e7442531e.jpg'],['http://t2.hddhhn.com/uploads/tu/201803/9999/7aff8c935f.jpg']]

@H_419_1@3.6 下载图片

@H_419_1@3.6.1 专门写个下载图片函数

1# 下载图片函数

2'''

3folder_name : 分类文件夹名称,按图片简介

4picture_address : 一组图片的链接

5'''

6def download_pictures(folder_name,picture_address):

7 file_path = r'G:Beautiful{0}'.format(folder_name)

8 if not os.path.exits(file_path):

9 # 新建一个文件夹

10 os.mkdir(os.path.join(r'G:Beautiful',folder_name))

11 # 下载图片保存到新建文件夹

12 for i in range(len(picture_address)):

13 # 下载文件(wb,以二进制格式写入)

14 with open(r'G:Beautiful{0}{1}.jpg'.format(folder_name,i+1),'wb') as f:

15 # 根据下载链接,发送请求,下载图片

16 response = requests.get(picture_address[i][0])

17 f.write(response.content)

@H_419_1@3.6.2 运行结果

运行结果

爬取结果(文字有点露骨)

单组皂片示例,看图片大小,挺清晰的

@H_419_1@4. 上面只是爬取了主页面的所有妹纸图片,如何实现在主页面翻页呢?

希望大家根据在单个妹子网页翻页的方法(3.5),自己动手写出如何在主页面翻页,爬取更多妹纸图!

实现下图页面翻页

 
总结

以上是内存溢出为你收集整理的从零基础开始教你爬取全网妹子图!难道你就不想室友面前装逼?全部内容,希望文章能够帮你解决从零基础开始教你爬取全网妹子图!难道你就不想在室友面前装逼?所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/1208831.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-04
下一篇 2022-06-04

发表评论

登录后才能评论

评论列表(0条)