这个“robots.txt”是什么呢?
robots.txt(小写字母)是一种存放在一些网站的服务器根目录下的ASCII编码的文本文件。它的作用是告诉搜索引擎的爬虫机器人(又称网络蜘蛛、漫游器)该网站中的哪些内容是不允许被搜索引擎爬虫抓取的,哪些是允许被抓取的。由于在一些系统中URL大小写敏感,因此robots.txt的文件名均统一为小写。robots.txt放置在网站的根目录下。
淘宝为什么要这样做呢?
网上的说法有很多种,在我看来有2个重要的原因:
1、保护用户的信息
搜索引擎对动态页面的抓取技术越来越成熟,在没屏蔽爬虫的情况下,爬虫是可以抓取到用户登陆之后的信息的,抓取之后是有可能在搜索引擎中搜索时候展现出来的,基于这种前提淘宝考虑屏蔽。
2、抢夺流量入口
可以试想一下如果在百度搜索中,搜索淘宝的一家店铺名字能够展现出来这个淘宝店铺的话,会有多少人直接用百度搜索淘宝店铺购买想要的东西了,而不会先进入到淘宝网再对淘宝店铺进行搜索了?那么这一部分本来就属于淘宝的流量被百度给抢走了,淘宝能干嘛?
再试想一下,这些流量都被百度抢走之后淘宝网首页的大图推荐还能卖多少钱?淘宝的直通车还能赚钱吗?淘宝自己开发的那么多产品不都是通过流量来变现的吗?这些流量被百度拿走了对淘宝来说是一个巨大的损失。
综合这2点重要的因素我们了解到淘宝通过禁止搜索引擎爬虫的抓取,抢夺到一大批的流量,同时淘宝还在搜索引擎上购买流量,如下图:
天猫本身是屏蔽蜘蛛抓取的,但是他们在百度付费推广做广告,等于是在付费购买百度搜索引擎的流量。
淘宝在拥有大流量大数据的情况下开发出各种针对商家的产品,让商家对这自己需要的部分流量进行付费买单,从而实现流量变现。
https://www.leosem.com/
百度是搜索引擎,爬虫就是沿着网站的链接不断搜索,并下载到本地的机器人程序.搜索引擎在一定程度上会给网站造成负担.
所以现在有很多网站都有反爬虫设置,把自己想要被搜索出的东西直接提供给爬虫,而不让爬虫去抢占带宽.淘宝网已经开始屏蔽百度的蜘蛛爬虫,淘宝网在网站根目录下的robots.txt文件中设置相关命令,禁止百度蜘蛛获取网页信息。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)