档案系统初期算是告一段落了,利用一点时间继续爬取POI。和领导聊聊,受益匪浅。之前我的想法是爬取一份poi数据,直接能用;而领导听了之后,觉得更好的方式是爬取多个渠道来源的POI数据,然后做一个数据比较融合(最终事情能不能成不好说,但是经过这么一回,细节技术上有所提高,宏观把控整体项目流程能力有所长进,更重要的是通过和能人交流,以更高的眼界更宏观的看待数据、应用以及问题,这就是成长)。 我之前采用的方式,可以满足需求,但是POI数据获取效率差一些(虽然已经很快,但是相比本文这种还是慢一些)、数据现势性不好,高德数据和百度数据虽然是两套,但是仅仅是坐标不同(所以显然还是一套)。所以,我加一种方式来爬取百度poi。
一 调研: 百度API提供了一个叫Place API获取poi的接口,有个城市内检索 实例为
ce/v2/searchquery=银行&page_size=10&page_num=0&scope=1®ion=北京&output=json&ak={您的密钥}
它返回的是个json类型数据,一个区域最大返回数为400,每页最大返回数为20。显然一个城市内不管什么类别的poi,不可能只有400个,会遗漏数据,故舍去
还有一个矩形区域检索,实例为
ucom/place/v2/searchquery=美食&page_size=10&page_num=0&scope=1&bounds=39915,116404,39975,116414&output=json&ak={您的密钥}只要区域划分得当,这个可以使用
二 要解决的问题
1 区域划分
网上有人通过递归写代码的方式来划分,这样划分有问题,第一,划分的区域不能完全对应一个城市的市区;第二,算法设计比较麻烦。解决办法,后面详细说。
2 类别问题
百度API的接口必须要指定query的类别,那么如果类别指定不准,或者类别不全,根本无法完成爬取一个城市所有poi的任务。解决办法,说实话,这个问题在我做这件事情的时候,
十分棘手,不过我最终找到了这个网页
/indexphptitle=lbscloud/poitags,一切都不是问题了
三 整体流程
1 区域划分,2km2km的区域基本可以满足需求,获取每个区域的对角坐标(经纬度),逐行写入一个txt文本里
2 爬虫程序编写 读取1中的txt文本,逐行循环;调用百度API接口,爬取json;将爬取的数据存入数据库中; 每个类别跑一次程序
3 爬下的POI数据处理 poi显示,投影坐标转换,与地图叠加
后文将详细介绍流程
把爬到的数据用三引号接收再想办法处理呢
a="""aaa"aa"aa'aa'""" #a为你实际爬到的数据b = """%s""" %(a)
print b
#打印 '"aaa"aa"aa\'aa\''
你这个想法很好,但是实现起来很麻烦,首先你需要淘宝对你开放API接口才行,然后写代码有事一个难事,不过我知道有一个软件是可以实现的,甩手掌柜,只需要绑定你的淘宝账号就可以,因为他们一个公司,和淘宝合作,淘宝对其开放API,然后一个团队写代码,所以是可以实现的。不光可以自动下载订单,还可以轻松管理商品,打印发货单,进销存管理等等!
以上就是关于怎么使用python爬取百度网的数据全部的内容,包括:怎么使用python爬取百度网的数据、爬虫怎么爬取完整的商品分类列表,并将其完整的关联的关系也存取数据库、php自动抓取淘宝订单号和支付宝交易号存入数据库的代码等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)