选择的Python和Node框架,是在搜索 “最快的<某语言>api “时得到的最高结果;Rust的Actix是一直高度维护的。
测试的基础很简单;在我的MacBook Pro M1上,每个框架处理来自网络服务器的5000个基本 “Hello, World “响应需要多长时间?我用来运行测试的代码非常简单,显然,我们只关心速度:Python客户端代码:<b>import</b> requestsfrom requests.adapters <b>import</b> HTTPAdapterfrom requests.packages.urllib3.util.retry <b>import</b> RetryMAX_RETIES = 3def create_retriable_session():s = requests.Session()retries = Retry(total=MAX_RETIES,)s.mount(‘http:<font><i>//’, HTTPAdapter(max_retries=retries))</i></font><font>s.mount(‘https:</font><font><i>//’, HTTPAdapter(max_retries=retries))</i></font><font><b>return</b> sdef main():s = create_retriable_session()<b>for</b> _ in range(0, 5000):s.get(</font><font>”http://127.0.0.1:8000/”</font><font>)</font>服务器端,使用fastapi:from fastapi <b>import</b> FastAPIapp = FastAPI()@app.get(<font>”/”</font><font>)async def root():<b>return</b> {</font><font>”message”</font><font>: </font><font>”Hello World”</font><font>}</font>运行服务器:uvicorn main:app测试结果:5.22 s ± 221 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)下面是使用另外一个框架Fastfy使用 异步 后的代码:<b>const</b> fastify = require(‘fastify’)({logger: false})<b>const</b> PORT = 8000;fastify.get(‘/’, async (request, reply) => {<b>return</b> {message: ‘Hello World’}})<b>const</b> start = async () => {<b>try</b> {await fastify.listen(PORT)} <b>catch</b> (err) {fastify.log.error(err)process.exit(1)}}start()再次测试结果:4.49 s ± 84.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)比较结果:FastApi每秒处理约957.85次,Fastfy每秒处理1113.59次。
Rustuse actix_web::{App, get, HttpResponse, HttpServer, Responder};#[get(<font>”/”</font><font>)]async fn hello() -> impl Responder {HttpResponse::Ok().body(</font><font>”{\”message\”: \”Hello World\”}”</font><font>)}#[actix_web::main]async fn main() -> std::io::Result<()> {HttpServer::<b>new</b>(|| {App::<b>new</b>().serb> express = require(‘express’)<b>const</b> app = express()<b>const</b> port = 8000app.get(‘/’, (req, res) => {res.json({message: <font>”Hello World”</font><font>})})app.listen(port, () => {console.log(`Example app listening at http:</font><font><i>//localhost:${port}`)</i></font><font>})</font>测试结果:4.88 s ± 152 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)Rustuse actix_web::{App, get, HttpResponse, HttpServer, Responder};#[get(<font>”/”</font><font>)]async fn hello() -> impl Responder {HttpResponse::Ok().body(</font><font>”{\”message\”: \”Hello World\”}”</font><font>)}#[actix_web::main]async fn main() -> std::io::Result<()> {HttpServer::<b>new</b>(|| {App::<b>new</b>().service(hello)}).bind(</font><font>”127.0.0.1:8000″</font><font>)?.run().await}</font>测试结果:4.32 s ± 58.7 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)比较结果:我们再次看到,Rust比python快,也比Fastify快,Rust能够每秒处理1157.41个请求,每秒比Fastify快44个请求,比FastApi每秒快200个请求。
Node.js只是为了好玩,Express是最常见的节点框架,所以我也想测试一下,Express比fastify的功能更全面,所以我估计它也会更慢。
<b>const</b> express = require(‘express’)<b>const</b> app = express()<b>const</b> port = 8000app.get(‘/’, (req, res) => {res.json({message: <font>”Hello World”</font><font>})})app.listen(port, () => {console.log(`Example app listening at http:</font><font><i>//localhost:${port}`)</i></font><font>})</font>测试结果:4.88 s ± 152 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)而且确实比fastify要慢。
结论Rust绝对是最快的选择,但它是最好的吗?我不确定我是否能回答这个问题,因为98%的情况下这要取决于。
你的团队知道什么?该框架有你需要的功能吗?如果没有,你能建立它吗?如果你没有一个专家团队,学习起来有多容易?该框架在4-5年内存在的可能性有多大?这些测试有一些注意事项,它们是在Python中运行的,所以它们只能以Python发出请求的速度运行,而且它们不是多线程的,所以框架也可能不会使用多线程来响应,这取决于Python请求库中的会话工作方式。
另外,一般来说,node是单线程的,node用队列来伪造并发,但是有一种方法可以解决这个问题,那就是用workers,它允许你在不同的线程上运行多个服务器,这取决于CPU有多少逻辑核心,这在生产中非常有用,因为它有巨大的性能提升,但同样,这些测试不能从中受益。
这篇文章的重点不是让你转到Actix/Rust的生产服务器上,重点是展示我在学习新东西时喜欢的一种简单的方法,并希望展示测试并不总是要严肃或复杂。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)