文/258网络运营负责人郑俊威
Robots文件是搜索绿色生态非常重要的一个阶段,也是非常关键的一个阶段。在整个网络运行过程中,很多站长同学很容易忽略robots文件的存在,错误的覆盖或者全部禁止,导致不必要的伤害!
那么机器人因 *** 作失误被禁怎么办?
[示例]
搭建网站2.0版本,技术上选择线上开发设计。为了更好的防止百度搜索引擎抓取开发设计版本,需要专业技术人员设置Robots拦截解决方案。2.0版本的开发进度为一个月。一个月后网站版本迭代更新,立刻覆盖了1.0版本,包括机器人的禁用文档。两天后发现总流量大减。查了百度收录,发现800万百度收录下降到0,很多关键词断链。
[处理方法]
1.将禁止机器人改为允许,然后在百度站长后台检查升级机器人。
2.在百度站长后台抓取查看。这时候显示信息抓取不成功,没事。点开几次,打开搜索引擎蜘蛛抓取网站。
3.百度站长后台抓取次数,申请抓取次数增加。
4.百度搜索反馈管理中心,反馈是 *** 作失误造成的。
5.百度站长在后台链接提交办公室,将数据信息设置为主动推送(即时)。
6.更新sitemapsitmap,再次提交百度搜索,每天手工提交一次。
解决完了,接下来就是等待了。好在2天时间数据信息刚开始逐渐回升,到第三天基本数据回升到一切正常状态!
[示例摘要]
这次安全事故绝对是对事业的严重伤害。大家好好想想,期待大家对类似问题的预防。
1.产品R&D必须防止在线开发和设计,并且不允许为了更好的便利性而构建开发工具。
2.产品迭代要有步骤记录,这些设置要在开发设计时解决。这些不应该放,但是一定要放清楚。
3.时刻关心百度站长的后台,关心数据信息的变化,从数据信息的变化中及时处理问题。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)