欢迎分享,转载请注明来源:内存溢出
根据自身设置,不想让索引的可以禁止,Disallow: /wp-admin wp-admin如果是目录名后面应加/ Disallow: /wp-admin/,但WP没用过不太清楚Disallow: /?s= 应该是禁止带?的页面吧,不知是否,一般为动态,不过我所知的写法是Disallow: /*?网站地图你就理解为给蜘蛛指路吧Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。搜索引擎机器人访问网站时,首先会寻找站点根目录有没有 robots.txt文件,如果有这个文件就根据文件的内容确定收录范围,如果没有就按默认访问以及收录所有页面。另外,当搜索蜘蛛发现不存在robots.txt文件时,会产生一个404错误日志在服务器上,从而增加服务器的负担,因此为站点添加一个robots.txt文件还是很重要的。知道Robots协议的作用后,下面具体说一下WordPress站点如何编写robots.txt文件。WordPress站点默认在浏览器中输入:你的域名/robots.txt,会显示如下内容:User-agent: *Disallow: /wp-admin/Disallow: /wp-includes/这是由WordPress自动生成的,意思是告诉搜索引擎不要抓取后台程序文件。但这是远远不够的,比较完整的WordPress站点robots.txt文件内容如下:User-agent: *Disallow: /wp-admin/Disallow: /wp-content/Disallow: /wp-includes/Disallow: /*/comment-page-*Disallow: /*?replytocom=*Disallow: /category/*/page/Disallow: /tag/*/page/Disallow: /*/trackbackDisallow: /feedDisallow: /*/feedDisallow: /comments/feedDisallow: /?s=*Disallow: /*/?s=*\Disallow: /attachment/
赞
(0)
打赏
微信扫一扫
支付宝扫一扫
win7系统笔记本怎么连接到液晶电视?
上一篇
2023-05-14
尼康D300相机怎么返回原厂设置
下一篇
2023-05-14
评论列表(0条)