有没有其他人处于类似情况(任何蜘蛛)?你有没有遇到过神奇的解决方案?或者你只是接受它并阻止或不阻止机器人?
解决方法 只要它遵循robots.txt,您就可以限制请求User-agent: *Crawl-delay: 10总结
以上是内存溢出为你收集整理的带宽 – 百度蜘蛛每天造成3Gb流量 – 但我在中国做生意全部内容,希望文章能够帮你解决带宽 – 百度蜘蛛每天造成3Gb流量 – 但我在中国做生意所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)