下面是内存溢出 jb51.cc 通过网络收集整理的代码片段。
内存溢出小编现在分享给大家,也给大家做个参考。
#-*- Coding:utf-8 -*- http://www.aichengxu.comimport urllib2import reimport requestsfrom lxml import etree这些是要导入的库,代码并没有使用正则,使用的是xpath,正则困难的童鞋可以尝试使用下推荐各位先使用基本库来写,这样可以学习到更多links=[] #遍历url的地址k=1 print u'请输入最后的页数:'endPage=int(raw_input()) #最终的页数 (r'\d+(?=\s*页) 这是一个比较通用的正则抓取总页数的代码,当然最后要group#这里是手动输入页数,避免内容太多for j in range(0,endPage): url='http://tIEba.baIDu.com/f?kw=%E7%BE%8E%E5%A5%B3&IE=utf-8&pn='+str(j) #页数的URL地址 HTML=urllib2.urlopen(url).read() #读取首页的内容 selector=etree.HTML(HTML) #转换为xml,用于在接下来识别 links=selector.xpath('//div/a[@]/@href') #抓取当前页面的所有帖子的url#大家可以使用浏览器自带的源码查看工具,在指定目标处查看元素,这样更快捷 for i in links: url1="http://tIEba.baIDu.com"+i #因为爬取到的地址是相对地址,所以要加上百度的domain HTML2=urllib2.urlopen(url1).read() #读取当前页面的内容 selector=etree.HTML(HTML2) #转换为xml用于识别 link=selector.xpath('//img[@]/@src') #抓取图片,各位也可以更换为正则,或者其他你想要的内容#此处就是遍历下载 for each in link: #print each print u'正在下载%d'%k fp=open('image/'+str(k)+'.bmp','wb') #下载在当前目录下 image文件夹内,图片格式为bmp image1=urllib2.urlopen(each).read() #读取图片的内容 fp.write(image1) #写入图片 fp.close() k+=1 #k就是文件的名字,每下载一个文件就加1print u'下载完成!'
以上是内存溢出(jb51.cc)为你收集整理的全部代码内容,希望文章能够帮你解决所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
总结以上是内存溢出为你收集整理的python实现爬虫下载美女图片全部内容,希望文章能够帮你解决python实现爬虫下载美女图片所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)