您的位置:首页技术文章
文章详情页

javascript - 一个node和java并发场景对比, 帮忙解释一下

【字号: 日期:2023-11-28 14:48:06浏览:49作者:猪猪

问题描述

假设单核CPU下安装一个node程序, 程序里面很简单, 一个http服务器, 有请求进来, 延迟5秒返回结果(可以理解了5s同步做一些事情)

当有3个请求同时进来时, 请问结果会是哪个场景:场景1:第一个请求在5秒后拿到结果, 第二个和第三个是在10s和15s后拿到结果场景2:所有请求都是5秒后拿到结果

如果换成java+tomcat, 会是哪种场景, 谢谢大家!

问题解答

回答1:

如果是 同步的 延迟 5秒,且 node.js 为简单的单线程运行,不加入 cluster 等优化

const start = Date.now();while(Date.now() - start < 5000) { ; }return res.send();

那么,多个请求同时发起时,场景1

但通常在 node.js 很少真的碰到完全阻塞的同步等待 5 秒,如果是下列情况:

setTimeOut(() => { return res.send(); }, 5000);

那结果当然是场景2

至于 Java ,并发是多线程支撑的,在机能足够的情况下,比如并发仅仅为3,可以粗略的视为是:场景2。当然由于涉及到线程开销,在并发量上升之后,其内存的占用将远超 node.js 的模型

实际上这也是为什么我们说 node.js 更加适合 IO密集 低运算 的场景。可以参考我的另一个回答

标签: JavaScript