对于企业网站,尤其是电子商务网站或者分类网站,会使用多维度的导航结构,可以帮助客户尽快选择派出所的必要结果。但是,不知道对于SEO来说是一场噩梦。我之前服务过的消费者,经常会有多维导航导致的成千上万的精选页面链接,可以抓取记录。
之前很多帖子都详细分析过这个问题,多维导航对SEO的具体危害也有详细解释(https://moz.com/blog/building-faced-navigation-that-not-suck)。正如我在http://www.86i87.com/2013/06/21.写的一篇文章
原文想解决的是梳理这种情况,得到相应的解决方案。大家解决的重要难点其实是:“有哪些方法可以危害Google对页面的抓取和收录,这些方法的优缺点是什么?”
多维导航的简单回顾
总之,多维导航是指网页URL优化技术中根据一系列特征(特征之间没有明显的相关性)选择结果的导航方法。下面分析现状,根据处理器类型、显示解析率、外壳颜色等不同特点来选择笔记本电脑,那种显示方式就是多维导航。
因为每一种排列和组合功能的可能方式都被转换成一个URL,多维导航给SEO造成了几个困难。
1.导致很多内容不变。
2.比seo分析URL工具箱更消耗有限的爬虫技术资源,还给百度搜索引擎一个错误的信号。
3.连接权重值被阻塞,并且连接权重值被传输到不应该获得权重值的页面。
再举一个具体案例。
看看一些网站严重实施多维导航的例子,以及对SEO的危害,就知道为什么要关注这个问题了。
梅西百货
查找”网站:谷歌上的https://www.macys.com/blackdresses"。Macys网站上有符合这个规格的1991款产品,但不知道Google收录了12000页。原因在于多维导航设置的缺陷,可以从SEO的角度修复。
家得宝
再来讨论一下家得宝的网站。找外门会找到8930页。百度搜索百度搜索引擎真的有必要收录这么多同类产品的精选页面吗?其实不一定,当然这个问题可以按照下面详细讲解的方法来修复。
对于大中小电商网站来说,这样的情况还是很多的。我想告诉你的是,其实这类网站可以在多维导航上做得对Akiseo更友好。
多维导航SEO解决方案
要解决这个问题,一开始就要确立哪些内容是必须包含的,哪些是应该避免的,以及如何达到这两个目的。让我们讨论一下我们有什么武器。
“诺索引,跟着”
Noindexsign是大多数人想到的第一个方案。这个标志唯一的作用就是告诉爬虫技术不要包含这个页面,所以避免包含这个页面是非常合理的。
但Noindex标识虽然可以有效减少连续页面的数量,但还是会消耗爬虫的技术资源,而且这样的连续页面会接受链接的权重,所以有效页面的权重会降低。
*** 作流程举例:上面提到的Macys网站现状分析,如果你想收录“黑礼服”页面,但拒绝收录“百元以内黑礼服”页面,只需在后面选中的页面加上noindex的logo即可。但是,爬虫技术资源和连接资源的消耗是无法避免的。
标准化
规范符号也被广泛使用。Canonicallogo的实际意义是告诉Google爬虫技术,这样的页面相似度很高。只需抓取URL并将其返回到您的标准页面。Canonicallogo方案设计的初衷是解决内容连续的困难,连接权重值会集中在标准页面上,看起来是个不错的方案。
但是,谷歌爬虫技术的爬行资源会不断被消耗。
*** 作流程举例:/黑衣人?100以下/可以设置canoncial/black-dresses/的URL偏向。不仅解决了常数困难,还解决了连接权值分散的困难。
Robots.txt屏蔽
禁止爬虫技术爬取这个选中的页面当然是有效的。优点:速度更快, *** 作过程方便快捷,可以设置自己的拼写页面。但是还会继续有坏损:初始屏蔽后,连接权值就像被超级黑洞吸走了一样,完全没有了;此外,在某些情况下,谷歌不会遵守机器人合同。比如下图中,被机器人屏蔽的页面,在网页搜索中依然显示。
*** 作流程举例:disallow*?在Robots.txt下-100*。可以阻止Google访问所有包含under-100基本参数的页面,但不知道如果其他链接青睐这类网址,Google还会收录吗?
“Nofollow”拒绝包含的链接
我们可以根据Nofollow多维导航链接来解决抓取资源消耗的困难,但遗憾的是nofollowlogo并不能完全解决困难,这样的连续页面还是会被收录,链接的权重还是会流失。
*** 作流程举例:在偏向于不被收录的页面内部链接添加nofollowlogo,意思是告诉Google不要抓这类页面,抓点别的比较好。
以上困难一起解决。
首先,如果导航结构还没公布,我强烈建议在不改变URL的情况下进行多维导航(大部分是基于js脚本的),不会妨碍用户体验,而且转换成很多URL也不容易。但也不好:有一些重要的导航可以收录,有实用价值,还是要给这类页面做一个安全通道。
下表也许能看得更清楚:
该解决方案是否解决了持续的内容困难?你解决爬虫技术资源的困难吗?你解决连接权值传递的困难吗?允许外部链接传输重量值?允许内部链接权重值传递吗?备注名称
“否索引,跟随”是否是是
规范化yesnoyeyesyes仅用于相似的页面。
被Robots.txtYesYesNoNoNoRobots阻止的页面仍可能包含在内。
诺弗洛诺耶斯诺
资金被分配给许多当代信息技术。
那么有没有完美的解决方案呢?
首先,没有一劳永逸的解决方案。完美的解决方案应该是上述方案的有机结合。下面这个例子可能大部分网站都有,但更重要的是了解自己网站的结构和不足,进而得到有针对性的规划。
在认真执行之前,先问自己一个难题。对于你的网站来说,爬虫技术的抓取资源和链接权重值哪个更重要?不同的回应意味着不同的做法。
比如我不关心加入权值的危害,只想尽快分配爬虫技术的爬行资源。我可以建议:
1.网站的目录页和根目录可以存储当前的抓取状态(/服装/、/服装/女人/、/服装/女人/连衣裙/类似的具体地址)
2.对于独立目录页面,只允许访问具有选择标准的URL。
A.对于包含一个或多个选择标准的页面,该页面上的选择连接添加了nofollow特性(如/服装/女性/连衣裙?color=black/)
B.对于包含两个或更多选择标准的页面,添加一个Noindex标记(如/服装/女人/连衣裙?彩色=黑色?品牌=快递?/)
3.识别出这个选择规范是有利于SEO的(比如颜色、品牌名称),用管理权限添加这个选择规范,保证可以被百度搜索引擎抓取收录。
4.适当地设置canonical和rel=prev/next标志(请参考本文中的http://www.gsqi.com/marketing-blog/how-to-set-up-pagination-rel-next-prev/
以上做法可以逐步缓解多维导航给网站带来的困难。此外,该方案结合了不同的集中处理方法,包括nofollow、noindex和canonicalsigns的组成和应用,从而获得更强的预期效果。
其他难题
有两点必须单独提一下。
油炸面粉是合理的。
如果目录页/网站根页没有香炸粉导航,你就是在给自己挖坑。对于结构复杂的网站,香煎粉是帮助爬虫整理网站结构的最佳常用工具。
修复了URL中的基本选择参数。
在某些情况下,有些URL选择规范的选择顺序不一样,也会导致seo分析URL工具箱不一样:同一个URL会不断成倍增加页面数量,所以请尽量写下选择规范的顺序。
摘要
希望这篇文章能给你很多改进多维导航和增强特定搜索性能的思路。事实上,以下几个方面很重要:
1.多维导航用户体验很好,但一般对SEO不好。
2.多维导航对SEO的危害很大,比如内容不变,资源的抢夺浪费,链接权重的传递无效等。
3.最重要的难点是:如何控制谷歌的抓取和收录?
4.没有全方位的解决方案。构造以下内容是一个很好的做法:ing常用工具:noindex,follow典范的;机器人文件;nofollowajax/js。
5.方案设计解决方案的必要条件是区分连接权值和爬虫技术资源的优先选择。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)