记录一下使用Laravel-s抵御百度爬虫的经历

记录一下使用Laravel-s抵御百度爬虫的经历,第1张

概述记录一下使用Laravel-s抵御百度爬虫经历

下面由Laravel教程栏目给大家记录一下使用Laravel-s抵御百度爬虫的经历,希望对需要的朋友有所帮助!

什么是 Laravel-s

LaravelS是一个胶水项目,用于快速集成Swoole到Laravel或Lumen,赋予它们更好的性能
github地址

为什么用 Laravel-s

百度小程序上线后,百度爬虫过高的 qps(并发) 导致 cpu 满载,服务器宕机,服务器配置4核8G内存5M宽带。这时候怎么办?

调整 PHP-fpm 参数,设置为静态,静态模式对比动态模式性能更高。比如设置子进程数量255甚至更高,越高承受的并发量越大,但越高占用内存越大。结论,一定程度上有效果,但高并发下无用。

反馈百度调整爬虫抓取频率。结论,等吧,黄花菜都凉了,但还是反馈下比较好。

负载均衡。让其他服务器分担压力,前提是有足够的服务器,且都要部署相同的代码,且不能影响其他服务器本来职责的业务。或者在某云临时申请N台服务器,但你不知道爬虫什么时间来,什么时间去,不现实。

接下来就是文章的主题,用 Laravel-s 加速 http 响应。

@H_404_47@

Laravel-s 究竟起到多少加速效果

由于当时没有统计所有时段 qps 具体值,所以没办法得出准确的结论,只能根据调整前后的机器负载做对比。

部署前,cpu满载,机器宕机N次,瘫痪状态。外网出宽带占满(5M),部署后cpu立即降到20+, 临时升级宽带15M后,cpu达到 60%,外网宽带仍被占满(只能说百度爬虫是真作啊,多少宽带你就来多少啊)。结论,至少带来5倍的性能提升。

具体部署

爬虫所爬取的页面只是一部分,所以并不是将线上项目改造成laravel-s,也不现实。我们只需要将爬取的页面分离出来,单独部署到laravel-s

新建空项目,业务逻辑只处理抓取的页面API,项目端口号如 6501

部署 laravel-s ,测试API 及 ab压测

线上项目将爬虫爬取的页面路径代理到新建项目,如127.0.0.1:6501

@H_404_47@
location ~ ^/v1/test.* { proxy_pass http://127.0.0.1:6501; proxy_set_header Host $host;}

注意的几点:

conf/laravels.PHP 中,默认开启 worker 数量是 cpu 核数的两倍。

laravles 是运行在 swoole ,在内存中,每次更改代码,需重启 laravel-s

由于第2条的原因,数据库连接得不到释放,需开启 laravel 的断开重连(>laravle5.1)。在 conf/database.PHPMysqL配置中添加

@H_404_47@
'options'   => [ // 开启持久连接 \PDO::ATTR_PERSISTENT => true,],
总结

以上是内存溢出为你收集整理的记录一下使用Laravel-s抵御百度爬虫的经历全部内容,希望文章能够帮你解决记录一下使用Laravel-s抵御百度爬虫的经历所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/1227849.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-06-05
下一篇 2022-06-05

发表评论

登录后才能评论

评论列表(0条)

保存