koa-rapid-router超越koa-router性能的100多倍

水睿
2023-12-01

对比

如果使用nodejs来搭建Service服务,那么我们首选express或者koa,而fastify告诉我们一个数据:

FrameworkVersionRouter?Requests/sec
hapi18.1.029,998
Express4.16.438,510
Restify8.0.039,331
Koa2.7.050,933
Fastify2.0.076,835
-
http.Server10.15.271,768

从数据中可以看出,Koa的性能远大于express。当然,它的测试基于简单的单路由测试。不过由此我们可以看到fastify的性能远大于Koa。相信使用过fastify的小伙伴都会对它的性能速度感到惊讶。其实原理很简单,就是请求的URL快速匹配Callback。如何做到,理论上也很简单,就是找寻它的最短路径来匹配。所以一般能够快速匹配的,都是通过空间换时间的方式来达到效果。

这里,我还想告诉大家一点,fastify并不是最快的。

主角

今天的主角就是koa-rapid-router。为什么我们会以KOA打头呢?因为这篇文章目的其实是与koa-router的比较,而不是fastify。而此路由架构,也是为了在使用KOA的时候能够接近fastify的性能(经过测试,没有超过fastifyKOA本身的性能也有问题)。

接下来,我们会抛出一系列的测试数据来告诉大家Koa-router的性能是何其糟糕。我们分别使用这样的原则来测试

  1. 向每个架构注入10000个静态路由,测试最末尾的那个。
  2. 使用相同的测试命令 autocannon -c 100 -d 40 -p 10 <url>
  3. 对比静态路由和动态路由性能上的差距

测试代码全部在这里

静态路由对比

我们写入如下的代码

for (let i = 0; i < 10000; i++) {
  router.get('/uuid/' + (i + 1), async (ctx) => ctx.body = 'ok');
  vrouter.get('/uuid/' + (i + 1), (res) => res.end('ok'));
  route_2.get('/interface/api/uuid/' + (i + 1), async (ctx) => ctx.body = 'ok');
  fastify.get('/interface/api/uuid/' + (i + 1), (request, reply) => reply.send('ok'));
}
复制代码

接着进行测试 npm run test,得到数据:

Preview:

Results

commandarchitectureLatencyReq/SecBytes/Sec
test:koakoa + koa-router245.07 ms394.2556 kB
test:fastfastify1.96 ms493247 MB
test:rapidkoa + koa-rapid-router2.17 ms44828.86.37 MB
test:httphttp + koa-rapid-router1.64 ms58911.25.95 MB

从数据上得出结论,koa-router在有10000个路由的时候,它的性能超级低下,只能达到平均的394.25,意思就是每秒只能处理394.25个请求,多来就不行。而koa + koa-rapid-router则处理到了44828.8个。同样是使用KOA模型,差距很明显。我做了分析,主要是koa-router内部循环比较多导致的。在10000个请求循环过程中,效率非常低下。而我们如何做到达到44828.8的性能,主要我们在内存中维护了一份静态路由列表,能让程序以最快的速度找到我们需要的callback。

对比fastify,可以看出,KOA本身性能的问题很大。

大家一定会问,对比静态路由Koa-router肯定没有优势,那么我们来对比动态路由。

动态路由对比

我们写入如下代码

router.get('/zzz/{a:number}', async (ctx) => ctx.body = 'ok');
vrouter.get('/zzz/{a:number}', (res) => res.end('ok'));
route_2.get('/interface/api/zzz/:a(\\d+)', async (ctx) => ctx.body = 'ok');
fastify.get('/interface/api/zzz/:a', (request, reply) => reply.send('ok'));
复制代码

我们将这段代码加入到10000个静态路由代码的后面,修正测试的路径,我们得到如下数据:

Results

commandarchitectureLatencyReq/SecBytes/Sec
test:koakoa + koa-router220.29 ms441.7562.7 kB
test:fastfastify1.9 ms50988.657.24 MB
test:rapidkoa + koa-rapid-router2.32 ms41961.65.96 MB
test:httphttp + koa-rapid-router1.82 ms53160.85.37 MB

动态路由的对比从一定程度上可以看出koa-router的糟糕之处,不论是静态路由还是动态路由,它都基本稳定在400左右的qps。而koa + koa-rapid-router稍有下降,fastify一如既往的稳定。但是从http + koa-rapid-router模型上看,rapid完全超越fastifykoa + koa-rapid-routerkoa + koa-router对比,性能大概是100倍的样子。如果我们可以这样认定,如果我们需要高并发,但是还是使用koa的生态的话,koa + koa-rapid-router是最佳选择。如果我们完全追求性能,不考虑生态的话,那么fastify首选。

有人会问,那么为什么http + koa-rapid-router不使用,它可是比fastify更快的路由?那是因为,http + koa-rapid-router需要单独建立生态,暂时无法做到大规模使用,也许到最后,我们可以用上新的基于koa-rapid-router的企业级服务架构。这也是我正在思考的。

结尾

我们所造的轮子的性能是不可能超越http模块的性能,我们只能无限接近它。这就像光速的道理一样,只能接近,无法等于。高性能架构主要还是在于理念模型,跟数学息息相关。

项目开源在 github.com/cevio/koa-r… 有兴趣的小伙伴关注下,谢谢。

转载于:https://juejin.im/post/5c8b466ae51d451bfc6dd3ca

 类似资料: