1、进入R语言的GUI界面(RGUI.EXE),在菜单栏选择“程序包/安装程序包
2、在d出的窗口里往下拉,选择RODBC如图,点击确定
3、在ODBC数据源管理器里将需要的数据库添加进去,这里笔者使用的是SQL Server2008,驱动程序选择Native Client10.0
3、在R语言窗口输入连接语句
>library(RODBC)
**这里是载入RODBC库
>channel<-odbcConnect("MyTest",uid="ripley",case="tolower")
**连接刚才添加进数据源的“MyTest”数据库
**ch <- odbcConnect("some dsn ", uid = "user ", pwd = "**** ")
**表示用户名为user,密码是****,如果没有设置,可以直接忽略
>data(USArrests)
**将“USArrests”表写进数据库里(这个表是R自带的)
>sqlSave(channel,USArrests,rownames = "state",addPK = TRUE)
**将数据流保存,这时候打开SQL Server就可以看到新建的USArrests表了
>rm(USArrests)
>sqlTables(channel)
**给出数据库中的表
>sqlFetch(channel,"USArrests",rownames = "state")
**输出USArrests表中的内容
>sqlQuery(channel,"select * from USArrests")
**调用SELECT查询语句并返回结果(如图)
>sqlDrop(channel,"USArrests")
**删除表
>odbcClose(channel)
**最后要记得关闭连接
当然,通过这个办法也可以读取Excel、Access表中的内容,具体方法类似,这里不再重复
ForeSpider数据采集系统是天津市前嗅网络科技有限公司自主知识产权的通用性互联网数据采集软件。软件几乎可以采集互联网上所有公开的数据,通过可视化的 *** 作流程,从建表、过滤、采集到入库一步到位。支持正则表达式 *** 作,更有强大的面向对象的脚本语言系统。台式机单机采集能力可达4000-8000万,日采集能力超过500万。服务器单机集群环境的采集能力可达8亿-16亿,日采集能力超过4000万。并行情况下可支撑百亿以上规模数据链接,堪与百度等搜索引擎系统媲美。
软件特点:
一.通用性:可以抓取互联网上几乎100 %的数据
1.支持用户登录。
2.支持Cookie技术。
3.支持验证码识别。
4.支持HTTPS安全协议。
5.支持OAuth认证。
6.支持POST请求。
7.支持搜索栏的关键词搜索采集。
8.支持JS动态生成页面采集。
9.支持IP代理采集。
10.支持图片采集。
11.支持本地目录采集。
12.内置面向对象的脚本语言系统,配置脚本可以采集几乎100%的互联网信息。
二.高质量数据:精准采集所需数据
1.独立知识产权JS引擎,精准采集。
2.内部集成数据库,数据直接采集入库。
3.内部创建数据表结构,抓取数据后直接存入数据库相应字段。
4.根据dom结构自动过滤无关信息。
5.通过模板配置链接抽取和数据抽取,目标网站的所有可见内容均可采集,智能过滤无关信息。
6.采集前数据可预览采集,随时调整模板配置,提升数据精度和质量。
7.字段的数据支持多种处理方式。
8.支持正则表达式,精准处理数据。
9.支持脚本配置,精确处理字段的数据。
三.高性能:千万级的采集速度
1.C++编写的爬虫,具备绝佳采集性能。
2.支持多线程采集。
3.台式机单机采集能力可达4000-8000万,日采集能力超过500万。
4.服务器单机集群环境的采集能力可达8亿-16亿,日采集能力超过4000万。
5.并行情况下可支撑百亿以上规模数据链接,堪与百度等搜索引擎系统媲美。
6.软件性能稳健,稳定性好。
四.简易高效:节约70%的配置时间
1.完全可视化的配置界面, *** 作流程顺畅简易。
2.基本不需要计算机基础,代码薄弱人员也可快速上手,降低 *** 作门槛,节省企业爬虫工程师成本。
3.过滤采集入库一步到位,集成表结构配置、链接过滤、字段取值、采集预览、数据入库。
4.数据智能排重。
5.内置浏览器,字段取值直接在浏览器上可视化定位。
五. 数据管理:多次排重
1. 内置数据库,数据采集完毕直接存储入库。
2. 在软件内部创建数据表和数据字段,直接关联数据库。
3. 采集数据时配置数据模板,网页数据直接存入对应数据表的相应字段。
4. 正式采集之前预览采集结果,有问题及时修正配置。
5. 数据表可导出为csv格式,在Excel工作表中浏览。
6. 数据可智能排除,二次清洗过滤。
六. 智能:智能模拟用户和浏览器行为
1.智能模拟浏览器和用户行为,突破反爬虫限制。
2.自动抓取网页的各类参数和下载过程的各类参数。
3.支持动态IP代理加速,智能过滤无效IP代理,提升代理的利用效率和采集质量。
4.支持动态调整数据抓取策略,多种策略让您的数据无需重采,不再担心漏采,数据采集更智能。
5.自动定时采集。
6.设置采集任务条数,自动停止采集。
7.设置文件大小阈值,自动过滤超大文件。
8.自由设置浏览器是否加速,自动过滤页面的flash等无关内容。
9.智能定位字段取值区域。
10.可以根据字符串特征自动定位取值区域。
11.智能识别表格的多值,表格数据可以完美存入相应字段。
七. 优质服务
1.数据采集完全在本地进行,保证数据安全性。
2.提供大量免费的各个网站配置模板在线下载,用户可以自由导入导出。
3.免费升级后续不断开发的更多功能。
4.免费更换2次绑定的计算机。
5.为用户提供各类高端定制化服务,全方位来满足用户的数据需求。
最简单可以用urllib,python2.x和python3.x的用法不同,以python2.x为例:import urllib
html = urllib.open(url)
text = html.read()
复杂些可以用requests库,支持各种请求类型,支持cookies,header等
再复杂些的可以用selenium,支持抓取javascript产生的文本
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)