一般来说,阻止搜索引擎被收录也可能成为一个SEO问题。试图让搜索引擎抓取和索引更多的内容是SEO人员普遍头疼的问题。没有收录和指数,排名无从谈起。尤其是达到一定规模的网站,要让上海seo的网站完全收录,是一项相当费力的SEO技术。当页面达到比如说几个页面的时候,无论网站架构如何设计优化,都不可能收录,只能尽量提高收录率。
但是有时候如何防止搜索引擎被收录也可能成为一个问题。近年来,网站缺乏包容性已经成为一个越来越严重的SEO问题。需要屏蔽的情况,如机密信息、复制内容、广告链接等。过去常用的防止被收录的方法有密码保护、将内容放在表格后面、使用JS/Ajax、使用Flash等。
使用Flash
谷歌几年前就开始尝试抓取Flash内容,简单的文本内容已经可以抓取了。Flash中的链接也可以被跟踪。
表
谷歌还可以填写表格,抓取帖子请求页面。从日志中已经可以看出这一点。
JS/Ajax
使用JS链接一直被认为是非搜索引擎友好的方法,所以可以防止蜘蛛抓取。但是两三年前我看到JS链接无法阻止Google蜘蛛抓取。不仅会抓取JS中出现的URL,还可以执行简单的JS来查找更多的URL。
上图:搜索引擎被屏蔽收录的原因。
前几天发现网站优化的脸书评论插件中有很多评论被抓取收录。插件本身就是AJAX。这是好消息。我的一个实验性电商网站的商品评论功能就是因为这个花了不少心思。使用Facebookcomments插件有很大的好处。具体好处我们后面再说。问题是评论是AJAX实现的,无法抓取,包含产品评论是目的之一(生成原创内容)。当时我想了很久,没有解决的办法。我不得不愚蠢地放入Facebookcomments插件,打开购物车本身的评论功能。现在可以收录Facebookcomments里的评论了,不需要两套评论功能了。
Robots文件
目前,确保内容不被收录的方法是禁止robots文件。但是也有一个缺点,就是会瘦下来。虽然不能收录内容,但是页面变成了只接受链接权重,不流出权重的无底洞。
不跟随
Nofollow不能保证不会被收录。即使你自己网站上所有链接到该页面的链接都加了NF,也不能保证别人更高的网站建设得不到这个页面的链接,搜索引擎还是能找到这个页面的。
MetaNoindex+Follow
为了防止包含和权重转移,可以在页面上使用metanoindex和metafollow,这样页面就不会被包含,但权重会流出。的确,这也是一种更好的方式。还有一个问题,还是会浪费蜘蛛爬的时间。能防止收录,又不减肥,又不浪费爬行时间的读者,请留言,这对SEO社区是非常宝贵的。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)