欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Node.js中多进程模块Cluster的介绍与使用

程序员文章站 2022-06-11 22:30:20
前言 我们都知道nodejs最大的特点就是单进程、无阻塞运行,并且是异步事件驱动的。nodejs的这些特性能够很好的解决一些问题,例如在服务器开发中,并发的请求处理是个大...

前言

我们都知道nodejs最大的特点就是单进程、无阻塞运行,并且是异步事件驱动的。nodejs的这些特性能够很好的解决一些问题,例如在服务器开发中,并发的请求处理是个大问题,阻塞式的函数会导致资源浪费和时间延迟。通过事件注册、异步函数,开发人员可以提高资源的利用率,性能也会改善。既然node.js采用单进程、单线程模式,那么在如今多核硬件流行的环境中,单核性能出色的nodejs如何利用多核cpu呢?创始人ryan dahl建议,运行多个nodejs进程,利用某些通信机制来协调各项任务。目前,已经有不少第三方的node.js多进程支持模块发布,而nodejs 0.6.x 以上的版本提供了一个cluster模块 ,允许创建“共享同一个socket”的一组进程,用来分担负载压力。

本篇文章就基于该cluster模块来讲述node.js在多核cpu下的编程。

cluster模块介绍

nodejs所提供的cluster模块目前尚处于试验阶段,在v0.10.7的官方文档上我们可以看到模块的发布信息如下:

stability: 1 - experimental

关于该模块的功能,源文档描述如此“a single instance of node runs in a single thread. to take advantage of multi-core systems the user will sometimes want to launch a cluster of node processes to handle the load.” 其意就是:node的示例以单进程的模式运行,有时为了充分利用多核系统的资源用户需要运行一组node进程来分担负载。

cluster用法介绍

首先贴出一段该模块示例应用代码,接下来进行详细分析,代码如下:

var cluster = require('cluster');
var http = require('http');
var numcpus = require('os').cpus().length;

if (cluster.ismaster) {
 require('os').cpus().foreach(function(){
 cluster.fork();
 });
 cluster.on('exit', function(worker, code, signal) {
 console.log('worker ' + worker.process.pid + ' died');
 });
 cluster.on('listening', function(worker, address) { 
 console.log("a worker with #"+worker.id+" is now connected to " +
  address.address +
 ":" + address.port); 
 }); 
} else {
 http.createserver(function(req, res) {
 res.writehead(200);
 res.end("hello world\n");
 console.log('worker #' + cluster.worker.id + ' make a response');
 }).listen(8000);
}

这段代码很简单,主线程就是当前运行的js文件,主线程根据你本机系统的核数来创建子进程。所有进程共享一个监听端口8000,当有请求发起时,主线程会将该请求随机分配给某个子进程。console.log('worker #' + cluster.worker.id + ' make a response');这句代码可以打印出是哪个进程处理该请求。

问题分析

我们前面提到有请求发起时,由系统来决定将该请求交给哪个进程进行处理。这种完全依赖于系统的负载均衡存在着一个重要缺陷:在windows,linux和solaris上,只要某个子进程的accept queue为空(通常为最后创建的那个子进程),系统就会将多个connetion分配到同一个子进程上,这会造成进程间负载极为不均衡。特别是在使用长连接的时候,单位时间内的new coming connection并不高,子进程的accept queue往往均为空,就会导致connection会不停的分配给同一个进程。所以这种负载均衡完全依赖于accept queue的空闲程度,只有在使用短连接,而且并发非常高的情况下,才能达到负载均衡,但是这个时候系统的load会非常高,系统也会变得不稳定起来。

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对的支持。