如何分析网站网页爬虫爬取规则

如何分析网站网页爬虫爬取规则,第1张

既然确定了用爬虫来自动整理文章,你得先理解爬虫是什么。爬虫说白了就是一个脚本程序。说到脚本,我们平时遇到一些费时费力又容易出错的活儿,都可以把用到的命令写到脚本里,让计算机自动来执行。测试同学说的自动化脚本,运维同学说的环境配置脚本,都是这个意思。一个脚本包含了很多命令,一个接一个,告诉计算机第一步干什么,之后干什么,最后干什么。

在这里,我们的目标很明确,就是写一个爬虫脚本,让计算机一步一步的把「给产品经理讲技术」的所有历史文章,保存成pdf。

历史文章哪里去找?正好,微信公众号的关注界面有一个查看历史消息的链接。

点开历史消息,这个页面每次显示10篇文章,如果用户滑到底,就会再加载10篇出来,典型的异步加载。我们要找的,就是每篇文章的URL地址。只要找到所有文章的URL,就能下载到每篇文章的内容和图片,然后就可以进一步加工处理成pdf了。

为此,我们长按页面选择在浏览器中打开,然后把地址栏里的URL复制出来,发送到电脑上,用Chrome打开。用Chrome的最大好处,就是它有一个「开发人员工具」,可以直接查看网页的源码。按下command+option+L,打开开发人员工具,就能看到这个网页的源码了。我们要找的东西,就藏在这些乱七八糟的HTML代码里。

如何从HTML源码里找到我们想要的文章链接呢?

这要从HTML的结构说起。HTML全称超文本标记语言,所谓标记,就是说是它通过很多标签来描述一个网页。你看到很多像以开始,以结束的标志,就是标签。这些标签一般成对出现,标签里面还可以套标签,表示一种层级关系。最外面的html标签是最大的,head、body次之,一层一层下来,最后才是一段文字,一个链接。你可以把它类比成一个人,这个人叫html,有head,有body,body上有hand,hand上面有finger。

扯远了,一些常用的标签:

1、<head>。一个网页的很多重要信息,都是在这里声明的。比如说标题,就是在<head>下的<title>里定义的。一个网页用到的CSS样式,可以在<head>下的<style>里定义。还有你写的JavaScript代码,也可以在<head>下的<script>里定义。

2、<body>。它包含的东西就多了,基本上我们能看到的东西,一段文字,一张图片,一个链接,都在这里面。比如说:

<p>表示一个段落

<h1>是一段文字的大标题

<a>表示一个链接

<img>表示一张图

<form>是一个表单

<div>是一个区块

计算机是如何理解HTML的标签的呢?其实很简单,它就是一棵树。你可以把<html>当做树根,从树根上分出<head>和<body>,各个分支上又有新的分支,直到不能再分为止。这有点类似我们电脑上存放的文件。假设你有一本《21天学习C++》的电子书,存在D盘、study文件夹下的CS文件夹里。而study文件夹里除了CS文件夹,还有GRE、岛国文化等目录,代表着另一个分支体系。这也是一棵树。树上的每一片叶子,都有一条从根部可以到达的路径,可以方便计算机去查找。

回到正题,有了这些基础知识,我么再来看微信这个历史消息页面。从最外层的<html>标签开始,一层一层展开,中间有<body>、有<div>、最后找到一个<a>标签,标签里面的hrefs就是每篇文章的URL了。把这个URL复制下来,在新的TAB打开,确认确实是文章的地址。

现在我们通过分析一个网页的结构、标签,找到了我们想要的文章URL,我们就可以写爬虫去模拟这个过程了。爬虫拿到网页之后,我们可以用正则表达式去查找这个<a>标签,当然,也可以用一些更高级的手段来找。

简单说:

使用正则,或者专门处理解析html的库,去提取即可;

详细说:

你巧了。我之前写过了,极其详尽的,不仅解释原理,还给出示例的说明,以及源代码的。自己看就全都明白了:

如何用Python,C#等语言去实现抓取静态网页,模拟登陆网站

(此处不给帖地址,请自己用google搜标题,就可以找到帖子地址了)

用前嗅的ForeSpider数据采集系统。ForeSpider数据采集系统具备全面的采集范围、精准的数据精度、绝佳的抓取性能、简易的可视化 *** 作、智能的自动化采集,使企业能够以很少的人工成本,快速获取互联网中结构化或非结构化的数据。软件几乎可以采集互联网上所有公开的数据,通过可视化的 *** 作流程,从建表、过滤、采集到入库一步到位。软件首创了面向对象的爬虫脚本语言系统,如果有通过可视化采集不到的内容,都可以通过简单几行代码,实现强大的脚本采集。软件同时支持正则表达式 *** 作,可以通过可视化、正则、脚本任意方式,实现对数据的清洗、规范。台式机单机采集能力可达4000-8000万,日采集能力超过500万。服务器单机集群环境的采集能力可达8亿-16亿,日采集能力超过4000万。并行情况下可支撑百亿以上规模数据链接,堪与百度等搜索引擎系统媲美。一.强大:可以抓取互联网上100 %的公开数据1.内置强大数据挖掘功能。2.支持用户登录。3.支持Cookie技术。4.支持验证码识别。5.支持HTTPS安全协议。6.支持OAuth认证。7.支持POST请求。8.支持搜索栏的关键词搜索采集。9.支持JS动态生成页面采集。10.支持IP代理采集。11.支持图片采集。12.支持本地目录采集。13.内置面向对象的脚本语言系统,配置脚本可以采集几乎100%的互联网公开数据。二.可视化+爬虫脚本语言+正则表达式ForeSpider是可视化的通用性采集软件,同时内置了强大的爬虫脚本语言。如果有通过可视化采集不到的内容,都可以通过简单几行代码,实现强大的脚本采集。软件同时支持正则表达式 *** 作,可以通过可视化、正则、脚本任意方式,实现对数据的清洗、规范。三.集成数据挖掘功能软件内部集成了数据挖掘功能,可以通过一个采集模板,精准挖掘全网的内容。在数据采集入库的同时,可以完成分类、统计、自然语言处理等诸多功能。软件与公司的ForeAna数据分析系统对接,可以实现强大的数据分析功能,对数据进行深度的大数据分析。四.精准:精准采集所需数据1.独立知识产权JS引擎,精准采集。2.内部集成数据库,数据直接采集入库。3.内部创建数据表结构,抓取数据后直接存入数据库相应字段。4.根据dom结构自动过滤无关信息。5.通过模板配置链接抽取和数据抽取,目标网站的所有可见内容均可采集,智能过滤无关信息。6.采集前数据可预览采集,随时调整模板配置,提升数据精度和质量。7.字段的数据支持多种处理方式。8.支持正则表达式,精准处理数据。9.支持脚本配置,精确处理字段的数据。五.高性能:千万级的采集速度1.C++编写的爬虫,具备绝佳采集性能。2.支持多线程采集。3.台式机单机采集能力可达4000-8000万,日采集能力超过500万。4.服务器单机采集能力可达8亿-16亿,日采集能力超过4000万。5.并行情况下可支撑百亿以上规模数据链接,堪与百度等搜索引擎系统媲美。6.软件性能稳健,稳定性好。六.简易高效:节约70%的配置时间1.完全可视化的配置界面, *** 作流程顺畅简易。2.基本不需要计算机基础,代码薄弱人员也可快速上手,降低 *** 作门槛,节省企业爬虫工程师成本。3.过滤采集入库一步到位,集成表结构配置、链接过滤、字段取值、采集预览、数据入库。4.数据智能排重。5.内置浏览器,字段取值直接在浏览器上可视化定位。五.数据管理:数据智能入库1.数据存储在用户本地计算机,不会上传至前嗅服务器,保证数据独有,更加安全。2.内置数据库,数据采集完毕直接存储入库。3.在软件内部创建数据表和数据字段,直接关联数据库。4.采集数据时配置数据模板,网页数据直接存入对应数据表的相应字段。5.正式采集之前预览采集结果,有问题及时修正配置。6.数据表可导出为csv格式,在Excel工作表中浏览。7.数据可智能排除,二次清洗过滤。六.智能:智能模拟用户和浏览器行为1.智能模拟浏览器和用户行为,突破反爬虫限制。2.自动抓取网页的各类参数和下载过程的各类参数。3.支持动态IP代理加速,智能过滤无效IP代理,提升代理的利用效率和采集质量。4.支持动态调整数据抓取策略,多种策略让您的数据无需重采,不再担心漏采,数据采集更智能。5.自动定时采集。6.设置采集任务条数,自动停止采集。7.设置文件大小阈值,自动过滤超大文件。8.自由设置浏览器是否加速,自动过滤页面的flash等无关内容。9.智能定位字段取值区域。10.可以根据字符串特征自动定位取值区域。11.智能识别表格的多值,表格数据可以完美存入相应字段。七.增值服务1.VIP客服持续在线服务,解决各类技术难题,可以远程帮助完成配置。2.提供大量免费的采集模板,用户可以下载导入。3.软件被防爬后,免费提供解决方案和软件的针对性升级。4.免费升级后续不断开发的更多功能。5.软件绑定账号不固定计算机,可以任意更换使用的计算机。6.为用户提供各类高端定制化服务,全方位来满足用户的数据需求。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/7433989.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-05
下一篇 2023-04-05

发表评论

登录后才能评论

评论列表(0条)

保存