1、xmlhttp/winhttp法:
用xmlhttp/winhttp模拟向服务器发送请求,接收服务器返回的数据。
优点:效率高,基本无兼容性问题。
缺点:需要借助如fiddler的工具来模拟http请求。
2、IE/webbrowser法:
创建IE控件或webbrowser控件,结合htmlfile对象的方法和属性,模拟浏览器 *** 作,获取浏览器页面的数据。
优点:这个方法可以模拟大部分的浏览器 *** 作。所见即所得,浏览器能看到的数据就能用代码获取。
缺点:各种d窗相当烦人,兼容性也确实是个很伤脑筋的问题。上传文件在IE里根本无法实现。
3、QueryTables法:
因为它是excel自带,所以勉强也算是一种方法。其实此法和xmlhttp类似,也是GET或POST方式发送请求,然后得到服务器的response返回到单元格内。
优点:excel自带,可以通过录制宏得到代码,处理table很方便
。代码简短,适合快速获取一些存在于源代码的table里的数据。
缺点:无法模拟referer等发包头
也可以利用采集工具进行采集网页端的数据,无需写代码。
用前嗅的ForeSpider数据采集系统。ForeSpider数据采集系统具备全面的采集范围、精准的数据精度、绝佳的抓取性能、简易的可视化 *** 作、智能的自动化采集,使企业能够以很少的人工成本,快速获取互联网中结构化或非结构化的数据。
软件几乎可以采集互联网上所有公开的数据,通过可视化的 *** 作流程,从建表、过滤、采集到入库一步到位。软件首创了面向对象的爬虫脚本语言系统,如果有通过可视化采集不到的内容,都可以通过简单几行代码,实现强大的脚本采集。软件同时支持正则表达式 *** 作,可以通过可视化、正则、脚本任意方式,实现对数据的清洗、规范。
台式机单机采集能力可达4000-8000万,日采集能力超过500万。服务器单机集群环境的采集能力可达8亿-16亿,日采集能力超过4000万。并行情况下可支撑百亿以上规模数据链接,堪与百度等搜索引擎系统媲美。
一.强大:可以抓取互联网上100 %的公开数据
1.内置强大数据挖掘功能。
2.支持用户登录。
3.支持Cookie技术。
4.支持验证码识别。
5.支持HTTPS安全协议。
6.支持OAuth认证。
7.支持POST请求。
8.支持搜索栏的关键词搜索采集。
9.支持JS动态生成页面采集。
10.支持IP代理采集。
11.支持图片采集。
12.支持本地目录采集。
13.内置面向对象的脚本语言系统,配置脚本可以采集几乎100%的互联网公开数据。
二.可视化+爬虫脚本语言+正则表达式
ForeSpider是可视化的通用性采集软件,同时内置了强大的爬虫脚本语言。如果有通过可视化采集不到的内容,都可以通过简单几行代码,实现强大的脚本采集。软件同时支持正则表达式 *** 作,可以通过可视化、正则、脚本任意方式,实现对数据的清洗、规范。
三.集成数据挖掘功能
软件内部集成了数据挖掘功能,可以通过一个采集模板,精准挖掘全网的内容。在数据采集入库的同时,可以完成分类、统计、自然语言处理等诸多功能。
软件与公司的ForeAna数据分析系统对接,可以实现强大的数据分析功能,对数据进行深度的大数据分析。
四.精准:精准采集所需数据
1.独立知识产权JS引擎,精准采集。
2.内部集成数据库,数据直接采集入库。
3.内部创建数据表结构,抓取数据后直接存入数据库相应字段。
4.根据dom结构自动过滤无关信息。
5.通过模板配置链接抽取和数据抽取,目标网站的所有可见内容均可采集,智能过滤无关信息。
6.采集前数据可预览采集,随时调整模板配置,提升数据精度和质量。
7.字段的数据支持多种处理方式。
8.支持正则表达式,精准处理数据。
9.支持脚本配置,精确处理字段的数据。
五.高性能:千万级的采集速度
1.C++编写的爬虫,具备绝佳采集性能。
2.支持多线程采集。
3.台式机单机采集能力可达4000-8000万,日采集能力超过500万。
4.服务器单机采集能力可达8亿-16亿,日采集能力超过4000万。
5.并行情况下可支撑百亿以上规模数据链接,堪与百度等搜索引擎系统媲美。
6.软件性能稳健,稳定性好。
六.简易高效:节约70%的配置时间
1.完全可视化的配置界面, *** 作流程顺畅简易。
2.基本不需要计算机基础,代码薄弱人员也可快速上手,降低 *** 作门槛,节省企业爬虫工程师成本。
3.过滤采集入库一步到位,集成表结构配置、链接过滤、字段取值、采集预览、数据入库。
4.数据智能排重。
5.内置浏览器,字段取值直接在浏览器上可视化定位。
五.数据管理:数据智能入库
1.数据存储在用户本地计算机,不会上传至前嗅服务器,保证数据独有,更加安全。
2.内置数据库,数据采集完毕直接存储入库。
3.在软件内部创建数据表和数据字段,直接关联数据库。
4.采集数据时配置数据模板,网页数据直接存入对应数据表的相应字段。
5.正式采集之前预览采集结果,有问题及时修正配置。
6.数据表可导出为csv格式,在Excel工作表中浏览。
7.数据可智能排除,二次清洗过滤。
六.智能:智能模拟用户和浏览器行为
1.智能模拟浏览器和用户行为,突破反爬虫限制。
2.自动抓取网页的各类参数和下载过程的各类参数。
3.支持动态IP代理加速,智能过滤无效IP代理,提升代理的利用效率和采集质量。
4.支持动态调整数据抓取策略,多种策略让您的数据无需重采,不再担心漏采,数据采集更智能。
5.自动定时采集。
6.设置采集任务条数,自动停止采集。
7.设置文件大小阈值,自动过滤超大文件。
8.自由设置浏览器是否加速,自动过滤页面的flash等无关内容。
9.智能定位字段取值区域。
10.可以根据字符串特征自动定位取值区域。
11.智能识别表格的多值,表格数据可以完美存入相应字段。
七.增值服务
1.VIP客服持续在线服务,解决各类技术难题,可以远程帮助完成配置。
2.提供大量免费的采集模板,用户可以下载导入。
3.软件被防爬后,免费提供解决方案和软件的针对性升级。
4.免费升级后续不断开发的更多功能。
5.软件绑定账号不固定计算机,可以任意更换使用的计算机。
6.为用户提供各类高端定制化服务,全方位来满足用户的数据需求。
<html><head>
<script src="//ajax.googleapis.com/ajax/libs/jquery/1.11.1/jquery.min.js"></script>
<script>
$(document).ready(function(){
setInterval(function(){
$.ajax({
url: "backend.php",
type: "GET",
dataType: "json",
success: function(json){
$('#output').append(json.time + '<br/>')
}
})
}, 1000)
})
</script>
</head>
<body>
<div id="output"></div>
</body>
</html>
前台html就是用ajax发请求,一般用json格式发送与接收数据,然后设置setInterval每1秒循环发送一次请求,后台也很简单:
<?php//backend.php
//把送回的数据json_encode()一下就可以了
echo json_encode(array('time'=>time()))
?>
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)