在SEO数据分析中,我认为首先要考虑的是全局的观点,也就是用发展的眼光来看待数据。比如百度的算法调整,一定要满足搜索者的需求。只要我们的内容信息与搜索者的用户体验完全一致,我们的收藏不一定需要数量很高,但在质量上是可以满足的。
要抓住重点,比如我们的网站被降权了,那么我们需要做的就是找出网站被降权的原因,然后我们所有的工作都要围绕这个目标:找出可能的原因,收集相关数据,分析数据,得出结论。
一方面,我不能只强调片面。很多朋友做SEO分析的时候,知识和经验可能有限,分析的问题也很有限。记得去年我开了这样一个玩笑,分析一个门户网站,忘记分析网站的二级域名,那么片面分析得出的结论自然是可笑的。
能够通过数据分析了解问题的本质。很多时候我只是看一个网站在搜索引擎优化方面做的好不好。很多时候我会检查代码是否使用了nofollow标签来判断,因为一个好的SEO肯定会使用标签。
网站数据分析中容易出错的部分
可以排除无关数据的干扰。很多情况下,我们搜索引擎优化分析产生的误差来自于无关数据的干扰。比如我的博客以前就被降级过。经过多方原因分析,发现这只是服务器宕机造成的,服务器稳定后才会恢复正常。
这些都是需要从全局角度去做的事情,但是很多人在分析SEO数据的时候都要建立一个好的数据分析模型,因为其中有两个问题:识别问题——分解问题——得出结论——提出建议。
没有正确的结论,只有越来越准确的结论。考虑到百度自身的业务,百度不会发布自己的搜索引擎算法,所以我们在SEO分析中往往依靠猜测。这个时候,很容易相信我们开始预测的结果。比如学长在考试中引入的经验关键词密度为2%-8%。我们也是这样做的,但是发现网站的排名还是有波动的。通过分析,我们发现原因也可能是关键词密度过高。为什么?
首先,我们需要分析搜索引擎的工作原理。搜索引擎在分析网页的相关性时,并不是根据我们设置的关键词进行匹配,而是对网页中的所有字符进行统计匹配,因此相关词可能不是我们设置的关键词,而是我们忽略的其他词。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)