电子商务:淘宝为什么禁止搜索引擎蜘蛛爬行抓取内容

电子商务:淘宝为什么禁止搜索引擎蜘蛛爬行抓取内容,第1张

我们都知道在国内如果买东西的话去淘宝购买就好了,对于普通网名来说他们不会在浏览器中搜索域名进入淘宝网站,更多的是在搜索引擎中搜索“淘宝”,我们可以看到淘宝网屏蔽搜索引擎的蜘蛛爬虫,淘宝网在网站根目录下的robots.txt文件中设置相关命令,禁止搜索引擎蜘蛛获取网页信息。

这个“robots.txt”是什么呢?

robots.txt(小写字母)是一种存放在一些网站的服务器根目录下的ASCII编码的文本文件。它的作用是告诉搜索引擎的爬虫机器人(又称网络蜘蛛、漫游器)该网站中的哪些内容是不允许被搜索引擎爬虫抓取的,哪些是允许被抓取的。由于在一些系统中URL大小写敏感,因此robots.txt的文件名均统一为小写。robots.txt放置在网站的根目录下。

淘宝为什么要这样做呢?

网上的说法有很多种,在我看来有2个重要的原因:

1、保护用户的信息

搜索引擎对动态页面的抓取技术越来越成熟,在没屏蔽爬虫的情况下,爬虫是可以抓取到用户登陆之后的信息的,抓取之后是有可能在搜索引擎中搜索时候展现出来的,基于这种前提淘宝考虑屏蔽。

2、抢夺流量入口

可以试想一下如果在百度搜索中,搜索淘宝的一家店铺名字能够展现出来这个淘宝店铺的话,会有多少人直接用百度搜索淘宝店铺购买想要的东西了,而不会先进入到淘宝网再对淘宝店铺进行搜索了?那么这一部分本来就属于淘宝的流量被百度给抢走了,淘宝能干嘛?

再试想一下,这些流量都被百度抢走之后淘宝网首页的大图推荐还能卖多少钱?淘宝的直通车还能赚钱吗?淘宝自己开发的那么多产品不都是通过流量来变现的吗?这些流量被百度拿走了对淘宝来说是一个巨大的损失。

综合这2点重要的因素我们了解到淘宝通过禁止搜索引擎爬虫的抓取,抢夺到一大批的流量,同时淘宝还在搜索引擎上购买流量,如下图:

天猫本身是屏蔽蜘蛛抓取的,但是他们在百度付费推广做广告,等于是在付费购买百度搜索引擎的流量。

淘宝在拥有大流量大数据的情况下开发出各种针对商家的产品,让商家对这自己需要的部分流量进行付费买单,从而实现流量变现。

https://www.leosem.com/

百度是搜索引擎,爬虫就是沿着网站的链接不断搜索,并下载到本地的机器人程序.

搜索引擎在一定程度上会给网站造成负担.

所以现在有很多网站都有反爬虫设置,把自己想要被搜索出的东西直接提供给爬虫,而不让爬虫去抢占带宽.淘宝网已经开始屏蔽百度的蜘蛛爬虫,淘宝网在网站根目录下的robots.txt文件中设置相关命令,禁止百度蜘蛛获取网页信息。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/6037489.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-12
下一篇 2023-03-12

发表评论

登录后才能评论

评论列表(0条)

保存