1.网站及页面权重。
这个肯定是首要的了,权重高、资格老、有权威的网站蜘蛛是肯定特殊对待的,这样的网站抓取的频率非常高,而且大家知道搜索引擎蜘蛛为了保证高效,对于网站不是所有页面都会抓取的,而网站权重越高被爬行的深度也会比较高,相应能被抓取的页面也会变多,这样能被收录的页面也会变多。
2.网站服务器。
网站服务器是网站的基石,网站服务器如果长时间打不开,那么这相当与你闭门谢客,蜘蛛想来也来不了。百度蜘蛛也是网站的一个访客,如果你服务器不稳定或是比较卡,蜘蛛每次来抓取都比较艰难,并且有的时候一个页面只能抓取到一部分,这样久而久之,百度蜘蛛的体验越来越差,对你网站的评分也会越来越低,自然会影响对你网站的抓取,所以选择空间服务器一定要舍得,没有一个好的地基,再好的房子也会跨。
3.网站的更新频率。
蜘蛛每次爬行都会把页面数据存储起来。如果第二次爬行发现页面与第一次收录的完全一样,说明页面没有更新,蜘蛛也就没有必要经常抓取了。页面内容经常更新,蜘蛛就会更加频繁的访问页面,但是蜘蛛不是你一个人的,不可能就在这蹲着等你更新,所以我们要主动向蜘蛛示好,有规律的进行文章更新,这样蜘蛛就会根据你的规律有效的过来抓取,不仅让你的更新文章能更快的抓取到,而且也不会造成蜘蛛经常性的白跑一趟。
4.文章的原创性。
优质的原创内容对于百度蜘蛛的诱惑力是非常巨大的,蜘蛛存在的目的就是寻找新东西,所以网站更新的文章不要采集、也不要每天都是转载,我们需要给蜘蛛真正有价值的原创内容,蜘蛛能得到喜欢的,自然会对你的网站产生好感,经常性的过来觅食。
5.扁平化网站结构。
蜘蛛抓取也是有自己的线路的,在之前你就给他铺好路,网站结构不要过于复杂,链接层次不要太深,如果链接层次太深,后面的页面很难被蜘蛛抓取到。
6.网站程序。
在网站程序之中,有很多程序可以制造出大量的重复页面,这个页面一般都是通过参数来实现的,当一个页面对应了很多URL的时候,就会造成网站内容重复,可能造成网站被降权,这样就会严重影响到蜘蛛的抓取,所以程序上一定要保证一个页面只有一个URL,如果已经产生,尽量通过301重定向、Canonical标签或者robots进行处理,保证只有一个标准URL被蜘蛛抓取。
7.外链建设。
大家都知道,外链可以为网站引来蜘蛛,特别是在新站的时候,网站不是很成熟,蜘蛛来访较少,外链可以增加网站页面在蜘蛛面前的曝光度,防止蜘蛛找不到页面。在外链建设过程中需要注意外链的质量,别为了省事做一些没用的东西,百度现在对于外链的管理相信大家都知道,我就不多说了,不要好心办坏事了。
8.内链建设。
蜘蛛的爬行是跟着链接走的,所以内链的合理优化可以要蜘蛛抓取到更多的页面,促进网站的收录。内链建设过程中要给用户合理推荐,除了在文章中增加锚文本之外,可以设置相关推荐,热门文章,更多喜欢之类的栏目,这是很多网站都在利用的,可以让蜘蛛抓取更大范围的页面。
9.首页推荐。
首页是蜘蛛来访次数最多的页面,也是网站权重最高的页面,可以在首页设置更新版块,这样不仅能让首页更新起来,促进蜘蛛的来访频率,而且可以促进更新页的抓取收录。同理在栏目页也可以进行此 *** 作。
10.检查死链,设置404页面
搜索引擎蜘蛛是通过链接来爬行搜索,如果太多链接无法到达,不但收录页面数量会减少,而且你的网站在搜索引擎中的权重会大大降低。蜘蛛在遇见死链就像进了死胡同,又得折返重新来过,大大降低蜘蛛在网站的抓取效率,所以一定要定期排查网站的死链,向搜索引擎提交,同时要做好网站的404页面,告诉搜索引擎错误页面。
11.检查robots文件
很多网站有意无意的直接在robots文件屏蔽了百度或网站部分页面,却整天在找原因为什么蜘蛛不来抓取我的页面,这能怪百度吗?你都不让别人进门了,百度是怎么收录你的网页?所以有必要时常去检查一下网站robots文件是否正常。
12.建设网站地图。
搜索引擎蜘蛛非常喜欢网站地图,网站地图是一个网站所有链接的容器。很多网站的链接层次比较深,蜘蛛很难抓取到,网站地图可以方便搜索引擎蜘蛛抓取网站页面,通过抓取网站页面,清晰了解网站的架构,所以建设一个网站地图不仅提高抓取率还能获得蜘蛛好感。
13.主动提交
每次更新完页面,主动把内容向搜索引擎提交一下也是一个不错的办法,只不过不要没收录就一直去提交,提交一次就够了,收不收录是搜索引擎的事,提交不代表就要收录。
14.监测蜘蛛的爬行。
利用网站日志监测蜘蛛正在抓取哪些页面、抓取过哪些页面,还可以利用站长工具对蜘蛛的爬行速度进行查看,合理分配资源,以达到更高的抓取速度和勾引更多的蜘蛛。
百度蜘蛛,英文名是“baiduspider”是百度搜索引擎的一个自动程序。它的作用是访问互联网上的html网页,建立索引数据库,使用户能在百度搜索引擎中搜索到您网站的网页。常见问题
1.Baiduspider对一个网站服务器造成的访问压力如何?
答:Baiduspider会自动根据服务器的负载能力调节访问密度。在连续访问一段时间后,Baiduspider会暂停一会,以防止增大服务器的访问压力。所以在一般情况下,Baiduspider对您网站的服务器不会造成过大压力。
2.为什么Baiduspider不停的抓取我的网站?
答:对于您网站上新产生的或者持续更新的页面,Baiduspider会持续抓取。此外,您也可以检查网站访问日志中Baiduspider的访问是否正常,以防止有人恶意冒充Baiduspider来频繁抓取您的网站。 如果您发现Baiduspider非正常抓取您的网站,请反馈至webmaster@baidu.com,并请尽量给出Baiduspider对贵站的访问日志,以便于我们跟踪处理。
3.我不想我的网站被Baiduspider访问,我该怎么做?
答:Baiduspider遵守互联网robots协议。您可以利用robots.txt文件完全禁止Baiduspider访问您的网站,或者禁止Baiduspider访问您网站上的部分文件。 注意:禁止Baiduspider访问您的网站,将使您的网站上的网页,在百度搜索引擎以及所有百度提供搜索引擎服务的搜索引擎中无法被搜索到。
ps:关于robots.txt的写作方法,请参看我们的介绍:robots.txt写作方法
4.为什么我的网站已经加了robots.txt,还能在百度搜索出来?
答:因为搜索引擎索引数据库的更新需要时间。虽然Baiduspider已经停止访问您网站上的网页,但百度搜索引擎数据库中已经建立的网页索引信息,可能需要二至四周才会清除。 另外也请检查您的robots配置是否正确。
5.我希望我的网站内容被百度索引但不被保存快照,我该怎么做?
答:Baiduspider遵守互联网meta robots协议。您可以利用网页meta的设置,使百度显示只对该网页建索引,但并不在搜索结果中显示该网页的快照。
和robots的更新一样,因为搜索引擎索引数据库的更新需要时间,所以虽然您已经在网页中通过meta禁止了百度在搜索结果中显示该网页的快照,但百度搜索引擎数据库中如果已经建立了网页索引信息,可能需要二至四周才会在线上生效。
6.百度蜘蛛在robots.txt中的名字是什么?
答:“Baiduspider” 首字母B大写,其余为小写。
7.Baiduspider多长时间之后会重新抓取我的网页?
答:百度搜索引擎每周更新,网页视重要性有不同的更新率,频率在几天至一月之间,Baiduspider会重新访问和更新一个网页。
8.Baiduspider抓取造成的带宽堵塞?
答:Baiduspider的正常抓取并不会造成您网站的带宽堵塞,造成此现象可能是由于有人冒充baidu的spider恶意抓取。如果您发现有名为Baiduspider的agent抓取并且造成带宽堵塞,请尽快和我们联系。您可以将信息反馈至webmaster@baidu.com,如果能够提供您网站该时段的访问日志将更加有利于我们的分析。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)