如何使用Excel完成网站上的数据爬取

如何使用Excel完成网站上的数据爬取,第1张

注意:本章节主要讲解数据获取部分

将网页中展示的数据爬取到可以编辑的文本工具中从而实现批量 *** 作。在具体的爬取过程中,经常使用的根据有Excel和Python。

该板块由三个模块组成:

爬虫过程中,最为常用的浏览器为谷歌浏览器和火狐浏览器。

实 *** 步骤:

1.获取浏览器标识

以谷歌浏览器为例:

打开浏览器输入目标网站后,右键点击检查(快捷键Ctrl+Shift+I(注:不是L,是I)),在检查页面中点击Network后重新加载页面,在检查Network页面中单击第一个网页信息:index.html。在右边出现的窗口Headers中,将页面拉至底部可查找到浏览器标识UserAgent,复制UserAgent信息即可。

2.设置响应时间(位置用户浏览)

新建Excel并打开,点击自网站,在d出的窗口中选择高级选项,将我们需要爬取的目标网址信息粘贴到Url位置处,同时在响应时间栏中设置1分钟的响应时间,

3.设置浏览器标识

在HTTP请求标头参数中下拉选择UserAgent,粘贴浏览器的UserAgent信息。

4.将数据载入到Power Query中进行预处理,建立网页链接后,选择数据Table0,选择编辑进入Power Query中进行数据预处理。处理完数据后,依照惯例,制作可视化地图。

1、Jsoup简述

Java中支持的爬虫框架有很多,比如WebMagic、Spider、Jsoup等。

​ Jsoup拥有十分方便的api来处理html文档,比如参考了DOM对象的文档遍历方法,参考了CSS选择器的用法等等,因此我们可以使用Jsoup快速地掌握爬取页面数据的技巧。

2、快速开始

1)分析HTML页面,明确哪些数据是需要抓取的

2)使用HttpClient读取HTML页面

HttpClient是一个处理Http协议数据的工具,使用它可以将HTML页面作为输入流读进java程序中.

3)使用Jsoup解析html字符串

通过引入Jsoup工具,直接调用parse方法来解析一个描述html页面内容的字符串来获得一个Document对象。该Document对象以 *** 作DOM树的方式来获得html页面上指定的内容。

3、保存爬取的页面数据

1)保存普通数据到数据库中

将爬取的数据封装进实体Bean中,并存到数据库内。

2)保存图片到服务器上

直接通过下载图片的方式将图片保存到服务器本地。

如果你只是想学简单的爬虫抓取技术的话就比较简单了,无非就是学习网页的请求、解析、筛选、保存。

具体的学习大致如下:

1、学会Python基本语法

2、学习爬虫常用库,如urllib, http、requests等,用于向网页发起请求

3、学习正则表达式re、BeautifulSoup(bs4)、Xpath等网页解析工具

4、以上三点学了以后就可以开始一些简单的网站爬取,体会爬取网页的过程

5、学习处理网站反爬机制,headers,Cookie,时间戳,隐含字段等

6、学习特殊网站的爬取,动态网页验证登录等问题

7、学习爬虫与数据库的结合,如何将爬取数据进行储存

再往后就是数据库的处理了,祝你学习愉快!


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/sjk/6819870.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-28
下一篇 2023-03-28

发表评论

登录后才能评论

评论列表(0条)

保存