PHP并发多进程处理利器Gearman使用介绍
工作中我们有时候会遇到比如需要同时发布数据到多个个服务器上,或者同时处理多个任务。可以使用php的curl_multi的方式并发处理请求,但是由于网络和数据以及各个服务器等等的一些情况导致这种并发处理的响应时间很慢,因为在并发请求的过程中还包括记录日志,处理数据等逻辑,等待处理结果并返回,所以也不能友好的满足后台操作的体验。
现在有另外一种方案,利gearman来实现并发的需求。通过client将请求发送到gearman的jobs,在每个work中来再来进行curl_multi和数据处理和日志等一些操作,同时用supervisor 来监控gearman以及works的进程,这样可以实现一个并行的多进程和负载均衡的方案。
gearman可以做什么:
异步处理:图片处理,订单处理,批量邮件/通知之类的
要求高cpu或内存的处理:大容量的数据处理,mapreduce运算,日志聚集,视频编码
分布式和并行的处理
定时处理:增量更新,数据复制
限制速率的fifo处理
分布式的系统监控任务
gearman工作原理:
使用gearman的应用通常有三部分组成:一个client、一个worker、一个 任务服务器。 client的作用是提出一个 job 任务 交给 job server 任务服务器。job server 会去寻找一个 合适的 worker 来完成这项任务。worker 执行由 client 发送过来的 job,并且将结果通过 job server 返回给 client。gearman 提供了 client 和 worker 的 api,利用这些api 应用可以同 gearman job server来进行通信。gearman 内部 client 和 worker 之间的通信都是通过 tcp 连接来进行的。
gearman可以将工作的负载分担到不同的机器中。
安装:
rpm -ivh http://dl.iuscommunity.org/pub/ius/stable/redhat/6/x86_64/epel-release-6-5.noarch.rpm
yum install -y gearmand
启动:
gearmand -d
安装php gearman扩展
我都是用pcel来安装的,你也可以下载源码包来编译安装,但是记得要先安装libgearman和re2c,不然扩展编译安装会出错。
pecl install gearman #不成功并提示版本问题可以试试 pecl install gearman-1.0.3,默认好像是1.1.2
编译安装也很简单
wget -c http://pecl.php.net/get/gearman-1.1.1.tgz
tar zxvf gearman-1.1.1.tgz
phpize
./configure
make && make install
echo "extension=gearman.so" >> /etc/php.ini
php接口函数
gearman提供很多完善的扩展函数,包括gearmanclient,gearmanjob,gearmantask,gearmanworker,具体可以查看php官方手册.
这是官方提供的example其中的一个,相当与一个并发的分发任务处理的例子
<?php $client = new gearmanclient(); $client->addserver(); // initialize the results of our 3 "query results" here $userinfo = $friends = $posts = null; // this sets up what gearman will callback to as tasks are returned to us. // the $context helps us know which function is being returned so we can // handle it correctly. $client->setcompletecallback(function(gearmantask $task, $context) use (&$userinfo, &$friends, &$posts) { switch ($context) { case 'lookup_user': $userinfo = $task->data(); break; case 'baconate': $friends = $task->data(); break; case 'get_latest_posts_by': $posts = $task->data(); break; } }); // here we queue up multiple tasks to be execute in *as much* parallelism as gearmand can give us $client->addtask('lookup_user', 'joe@joe.com', 'lookup_user'); $client->addtask('baconate', 'joe@joe.com', 'baconate'); $client->addtask('get_latest_posts_by', 'joe@joe.com', 'get_latest_posts_by'); echo "fetching...\n"; $start = microtime(true); $client->runtasks(); $totaltime = number_format(microtime(true) - $start, 2); echo "got user info in: $totaltime seconds:\n"; var_dump($userinfo, $friends, $posts);
gearman_work.php
<?php $worker = new gearmanworker(); $worker->addserver(); $worker->addfunction('lookup_user', function(gearmanjob $job) { // normally you'd so some very safe type checking and query binding to a database here. // ...and we're gonna fake that. sleep(3); return 'the user requested (' . $job->workload() . ') is 7 feet tall and awesome'; }); $worker->addfunction('baconate', function(gearmanjob $job) { sleep(3); return 'the user (' . $job->workload() . ') is 1 degree away from kevin bacon'; }); $worker->addfunction('get_latest_posts_by', function(gearmanjob $job) { sleep(3); return 'the user (' . $job->workload() . ') has no posts, sorry!'; }); while ($worker->work());
我在3个终端中都执行了gearman_work.php
ryan@ryan-lamp:~$ ps aux | grep gearman* | grep -v grep gearman 1504 0.0 0.1 60536 1264 ? ssl 11:06 0:00 /usr/sbin/gearmand --pid-file=/var/run/gearman/gearmand.pid --user=gearman --daemon --log-file=/var/log/gearman-job-server/gearman.log --listen=127.0.0.1 ryan 2992 0.0 0.8 43340 9036 pts/0 s+ 14:05 0:00 php /var/www/gearmand_work.php ryan 3713 0.0 0.8 43340 9036 pts/1 s+ 14:05 0:00 php /var/www/gearmand_work.php ryan 3715 0.0 0.8 43340 9036 pts/2 s+ 14:05 0:00 php /var/www/gearmand_work.php
来查看下执行gearman_work.php的结果shell
fetching...
got user info in: 3.03 seconds:
string(59) "the user requested (joe@joe.com) is 7 feet tall and awesome"
string(56) "the user (joe@joe.com) is 1 degree away from kevin bacon"
string(43) "the user (joe@joe.com) has no posts, sorry!"
看到上面的3.03 seconds,说明client请求过去的任务被并行分发执行了。
在实际的生产环境中,为了监测gearmand和work的进程没有被意外退出,我们可以借助supervisor这个工具.