一个网站所需的文章页面数量通常不是几万,而是几百万。如何在短时间内使网站的文章数量翻倍或成倍增长?方法一是增加内容,方法二是提高网站在搜索引擎中的“收录率”。
1。添加内容
常见的方法有三种:关键词词库构建、tab页面生成、UGC页面生成。
2。关键词词库的构建
通常,在规划网站时,页面是根据产品的SKU生成的。关键词词库的方法是挖掘所有的行业常用词、产品词、竞争词、品牌词,然后根据这些词生成网页。以58同城为例,建网之初,将区域细化到县,按照乘法原理生成页面:县单位×常用词×小字段分类×大字段分类;大众点评把区域细化到某条路或者某个pol,那么按照乘法原理,一条过亿的路可以产生几百亿的页面。
淘宝上有上亿的关键词词库,返利平台项目上却有上亿的关键词词库。
对于一个“资深SEO分析师”来说,挖词并不难。难点在于如何对生成的聚合页面进行“标记”,使其不会被搜索引擎视为“垃圾页面”,并保证页面的原创性和用户体验。
3。标签页生成
关键词词库的构建就是以关键词为核心,快速生成上亿的网页。聚合页面基于关键词索引,可以快速生成数千万的选项卡式页面。
Tab页可以理解为话题页和列表页,但至于tab页的权重,从投票原理来说,tab页有多个内页可以投票,权重应该高于文章页,几乎所有门户都是这么做的。从用户体验的角度来说,有时候标签页的价值远不如文章页。不久前,百度严厉打击垃圾网页,其中以标记网页为主。
很多门户网站,首先批量收集垃圾页面,甚至不复制。直接堆在网站数据库里,然后根据关键词生成tab页面。虽然文章对于搜索引擎来说是垃圾,但是文章标题或者meta产生的标签对于搜索引擎来说是原创的。虽然搜索引擎在标签页上的权重越来越低,但是相关性高、用户体验好的标签页仍然具有很高的投票能力。
标签生成的第一步是词扩展,和关键词词库的构建是一样的。不同的是你需要做不同的主题模板,主页必须给你一个入口。
以某保险网站为例,先做一个标签,即进入页面。
(1)支持关键词去重。在后台关键词库中导入关键词时,再次导入该关键词无效,即新导入的重复关键词不生成id或新页面。
(2)每次可以批量导入1-5000个关键词,为每个新导入的不重复关键词生成一个单独的ID。
(3)后台会提示哪些导入的关键词是重复的,支持删除重复关键词的功能。
(4)后台导入关键字后,点击生成页面,在后台预览网站数据库中生成的页面信息。
(5)后台可以检测不同关键词生成结果页面时的内容重复性。如果多个关键词70%以上的内容重复,后台会有相应的提示,ID重复的关键词不会生成页面和URL。
为什么要先收录新站?Seo公司注重新站优化。
(6)后台需要设置超级管理员和普通用户的用户权限级别。普通用户可以上传关键词并预览生成的页面,查询关键词ID信息功能,但无权发布在线关键词页面;超级管理员拥有普通用户的所有权利,也拥有点击和发布在线搜索关键词的权利。
(7)导入的关键字必须包含两个中文字符或两个英文字符,以生成搜索聚合页面。单个汉字或英文字母不支持导入关键词库和生成页面的限制。
(8)支持自动或手动标记由关键字生成的聚合页面。这些标签用于调用信息文章,评论,主题和其他使用相同标签的聚合页面。
(9)支持关键字聚合页面的单个和批量“添加、删除、修改”功能。
(10)支持在搜索聚合页面的关键词库中导入全部或部分关键词的功能。
注意:如果你的网站CMS没有这些功能,这是可以的。你可以按照这个思路来调整和优化自己。也可以查看我们锦绣大地SEO培训基地的VIP课程,学习使用方法。
(1)每页最多可生成40篇文章,最少可生成10篇文章;少于10篇文章不生成URL和页面。
(2)每个生成的关键词聚合页面之间的内容重复度不能大于70%。如果大于70%,导入的关键词不会生成URL和页面。
(3)每个关键词生成的文章标题必须包含多个相同的词根(词根个数大于等于2,如果数据库中有中英文分词词根)。此时,程序员还需要检查导入关键词后生成的文章结果的质量。
(4)预生成的关键词聚合页面必须有人预览和检查文章结果的匹配度;如果生成的结果不够准确,用户体验不好,很容易造成垃圾页面,导致搜索引擎功耗降低。
(5)搜索关键词聚合页面要求代码最精炼最简化,不含广告、JS控件、交互控件和其他渠道或活动的框架内容,不超过两个转化和监控代码,追求打开速度和用户体验。
接下来必须遵循关键词聚合页面的规则,比如页面聚合规则、标签规则、页面内容板块对应的逻辑规则、头部导航、面包屑、信息页面规则、相关主题规则、URL规则、标题规则、元规则等。关于内容规则,锦绣迪达SEO培训基地有详细的视频介绍。
5。URL优化
URL优化包括很多方面,其中有10个重要方面。按照重要性排序如下。
死循环:体现在列表页面A点击到B,再从B点击到A,结果A第二次点击返回的网址和***次点击返回的网址完全不同。这是大忌,因为蜘蛛一旦进入无限循环,总会掉进去爬不出来。
死链接:想象一只蜘蛛从网页A爬到网页B,再爬到网页C,结果B打不开,C也就收录不了。在另一种情况下,主体已被删除,但URL仍然存在。这种页面可以称为“活链接和死链接”。用户体验很差,推荐批次301。
重复页面:就像两颗豌豆,网址不一样。
(1)层次:在建网站的时候,你喜欢遵循严格的逻辑:“首页-类目首页-频道首页-产品词首页-主题页-文章页”。一般来说,6级以上都可以。搜索引擎会根据各个网站的权重和更新情况,给蜘蛛抓取的时间和次数。如果等级太多,蜘蛛爬到第五级也不一定能爬到第六级,而第六级往往有很多“干货”页面。
所以很多网站在设置URL的时候只有两层结构:首页和其他页面(所有页面都放在二级目录)和URL规则。
(2)翻页规则:主要用于列表页面。当翻页超过10000页时,建议使用50>:100或更大的比例来制作底部翻页尺。比如可以将底部规则设置为“1,2,3,4,5,10,20,30,40,50”等等。当蜘蛛爬到第五页时,底部显示变为“6,7,8,9,15,25,35,45,55”,让蜘蛛快速完成所有翻页。
蜘蛛陷阱:302Jump>:Flashjump,flashpage>:Sessionid,强制使用cookie,需要登录填写验证码等。
(3)不允许/
网站:XML网站图,提交百度。
6、蜘蛛入口
有些网站每天可以更新一定数量的原创文章。XML网站地图或者服务器日志显示蜘蛛每天出现的时间非常短,或者新的话题页/文章页在搜索引擎中能获得不错的排名。所以在首页添加词条是一个很好的方法。
虽然XMLsitemap可以让网页列表,但是在搜索引擎中列表和能够通过site命令搜索是两回事,搜索排名又是另外一回事。一个网站,因为所有页面都投首页,首页权重很高,把首页给了入口,就意味着网站权重的页面投了“入口页”,入口页的权重瞬间增加;
另外,蜘蛛通常会从首页爬到其他页面,从首页爬到入口,也就是说只要蜘蛛访问网站,入口页面就会被收录。
7。代码优化
蜘蛛到每个网站,在一段时间内,蜘蛛的数量大致是固定的。
同时,爬一个10000行的网页相当于爬10个1000行的网页。所以,理论上,如果你有10000行web代码,你可以把它减少到1000行以下。那么,同样权重下,蜘蛛抓取的网站要高10倍。
在几万页中,代码优化的效果是很慢的。对于千千成千上万的网站来说,代码优化的效果,无论是搜索引擎的数量,还是新的UV,都会产生不可思议的效果。
蜘蛛访问网站的时间有限。如果蜘蛛抓取一个页面需要正常速度的三到五倍甚至十倍,那么它能抓取的页面数量肯定是有限的。web服务器的一个问题就是用户体验很差。如今“用户体验优先”的搜索引擎不仅会受到影响,排名也会一落千丈。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)