由于之前一直想爬取花瓣网(http://huaban.com/partner/uc/aimeinv/pins/) 的图片,又迫于没时间,所以拖了很久。鉴于最近在学go语言,就刚好用这个练手了。预览
进入网站后,首页大概是这个样子
分析网站采用的流式布局,动态加载。未经渲染的初始页面源代码中包含有20张图片的相关信息。
每张图片有它的pin_ID和key, pin_ID差不多就是ID,而key应该是文件的特性码,由此key拼接url可以直接得到图片的地址。
使用了动态加载,鉴于这个比较简单,就没必要用无头浏览器了, 直接需要抓包分析,来手动模拟翻页请求。
翻页的一个实例:
http://huaban.com/partner/uc/aimeinv/pins/?max=2117952645&limit=8&wfl=1
有三个参数max就是图片的ID, limit是指定了返回图片的数量,而那个wfl就不知道了,变成0好像也没啥变化,就不管它了。
这里我想,要是直接把limit变成一个很大的数,翻页的过程不就省略了吗??,于是就试了个800。结果我的妈呀,它还真返回了这么多。。。
不过作为一个上进的程序员(●‘?‘●),怎么能采取这种方法呢。于是继续研究,发现那个max是当前页最后一张图片的ID,这样的话就好办了。
开始首先由url获取网页返回的内容
func getHTML(url string) string{ resp,err := http.Get(url) if err != nil { fmt.Println("A error occurred!") } defer resp.Body.Close() HTMLBytes,err := IoUtil.ReadAll(resp.Body) if err != nil { log.Fatal(err) } return string(HTMLBytes)}
然后解析该网页,包括下载该页中的图片,以及得到max值用于翻页。抓包时发现浏览器中返回的是Json,我自己也试着加上Accept头,接受Json类型,但返回的仍然是HTML,估计是少了什么header,这里我也懒得去尝试缺少啥头部了,直接对返回的HTML页面解析,就像第一次打开首页那样。另外由于key都位于script标签内,所以就不太适合用goquery等库了,直接用正则解析吧
func parsePage(strHTML string) string{ // 利用正则爬取页面中图片的key reg := regexp.MustCompile("\"key\":\"(.*?)\"") keys := reg.FindAllStringSubmatch(strHTML,-1) // 利用正则爬取页面中图片的pin_ID rege := regexp.MustCompile(`"pin_ID":(\d+),`) IDs := rege.FindAllStringSubmatch(strHTML,-1) for i := 0; i < len(keys) ; i++ { key := keys[i][1] // 过滤掉非图片类型的key if len(key) < 46{ continue } fmt.Println(parseKey(key)) downimg(parseKey(key)) count++ } // 得到用于翻页的ID fmt.Println(IDs[len(IDs)-1][1]) return IDs[len(IDs)-1][1]}
其中downimg()是图片下载函数
// 图片下载函数func downimg(url string) { // 处理前缀为//的url if string([]rune(url)[:2]) == "//" { url = "http:" + url fmt.Println(url) } // 解决文件无图片格式后缀的问题 filename := path.Base(url) if !strings.Contains(filename,".png") { filename += ".png" } resp,err := http.Get(url) if err != nil { fmt.Println("A error occurred!") return } defer resp.Body.Close() reader := bufio.NewReaderSize(resp.Body,32*1024) file,_ := os.Create(BasePath + filename) writer := bufio.NewWriter(file) written,_ := io.copy(writer,reader) fmt.Printf("Total length: %d\n",written)}
关键的main函数是
func main() { fmt.Println("SpIDer Start: ------------------------------>") HTML := getHTML(HuabanUrl) for i := 0; i < PageNum + 1; i++ { ID := parsePage(HTML) HTML = getHTML(nextPage(ID)) } fmt.Println("任务完成,共计下载:",count)}截图
运行截图
及成果截图(不是缩略图哦(●‘?‘●))
完整代码位于 github.com/asche910
总结以上是内存溢出为你收集整理的GoLang爬取花瓣网美女图片全部内容,希望文章能够帮你解决GoLang爬取花瓣网美女图片所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)