R语言通过parallel包实现多线程运行方式
总的来说,r的运算速度不算快,不过类似并行运算之类的改进可以提高运算的性能。下面非常简要地介绍如何利用r语言进行并行运算
library(parallel)cl.cores <- detectcores()cl <- makecluster(cl.cores)
detectcores( )检查当前电脑可用核数。
makecluster(cl.cores)使用刚才检测的核并行运算。r-doc里这样描述makecluster函数:creates a set of copies of r running in parallel and communicating over sockets. 即同时创建数个r进行并行运算。
在该函数执行后就已经开始并行运算了,电脑可能会变卡一点。尤其在执行par开头的函数时。
在并行运算环境下,常用的一些计算方法如下:
1. clusterevalq(cl,expr)函数利用创建的cl执行expr
这里利用刚才创建的cl核并行运算expr。expr是执行命令的语句,不过如果命令太长的话,一般写到文件里比较好。比如把想执行的命令放在rcode.r里:
clusterevalq(cl,source(file="rcode.r"))
2.par开头的apply函数族
这族函数和apply的用法基本一样,不过要多加一个参数cl。一般如果cl创建如上面cl <- makecluster(cl.cores)的话,这个参数可以直接用作parapply(cl=cl,…)。
当然apply也可以是sapply,lapply等等。注意par后面的第一个字母是要大写的,而一般的apply函数族第一个字母不大写。另外要注意,即使构建了并行运算的核,不使用parapply()函数,而使用apply()函数的话,则仍然没有实现并行运算。
换句话说,makecluster只是创建了待用的核,而不是并行运算的环境。
最后,终止并行运算只需要一行命令
stopcluster(cl)
案例1
不使用并行计算,直接使用lapply(隐式循环函数,它实际就是对不同的数据应用了相同的函数):
fun <- function(x){return (x+1);}system.time({res <- lapply(1:5000000, fun);});user system elapsed21.42 1.74 25.70
案例2
使用parallel包来加速
library(parallel)#打开四核,具体核数根据机器的核数决定cl <- makecluster(getoption("cl.cores", 4));system.time({res <- parlapply(cl, 1:5000000, fun)});user system elapsed6.54 0.34 19.95#关闭并行计算stopcluster(cl);
看看单核机器跑出来的结果:
user system elapsed29.30 9.23 97.22
所以,并非核数越多越好,看机器配置。
这个函数有两点要注意:
首先要先用detectcores函数确定系统核心数目,对于window系统下的intel i5或i7 处理器,一般使用detectcores(logical = f)来获得实际的物理核心数量。
由于这个函数使用的是调用rscript的方式,这个例子里,对象被复制了三份,因此内存会吃的很厉害,在大数据条件就要小心使用。
案例3
在linux下使用mclapply函数的效果如下:
mc <- getoption("mc.cores", 3)system.time({res <- mclapply(1:5000000, fun, mc.cores = mc);});user system elapsed6.657 0.500 7.181 stopcluster(cl);
补充:r语言如何并行处理[parallel package][向量化操作并行优化]
使用数据,长下面这样:
方法:
使用parallel包,并行向量化处理,进一步提升原先向量化处理速度。
原始代码:
start <- sys.time()experiment_step1 <- apply(dtc_small_modify, 1, decompose)end <- sys.time()print(end-start)
原始运行时间:3.083114 分
使用parallel包后
library(parallel) #并行处理包cl.cores <- detectcores(logical = f) #计算电脑核心数cl <- makecluster(cl.cores) # 初始化要使用的核心数start <- sys.time()results <- parapply(cl=cl, dtc_small_modify, 1, decompose) # apply的并行版本stopcluster(cl) # 关闭并行模式end <- sys.time()print(end-start)
并行后
运行时间:55.5877 秒,相较原先,速度提升了将近四倍!
tips:上述是对向量化(vectorization)apply类的并行处理。对于apply的并行处理,必须使用par开头的对应apply.
列表如下:
parlapply(cl = null, x, fun, …, chunk.size = null) parsapply(cl = null, x, fun, …, simplify = true, use.names = true, chunk.size = null) parapply(cl = null, x, margin, fun, …, chunk.size = null) parrapply(cl = null, x, fun, …, chunk.size = null) parcapply(cl = null, x, fun, …, chunk.size = null) parlapplylb(cl = null, x, fun, …, chunk.size = null) parsapplylb(cl = null, x, fun, …, simplify = true, use.names = true, chunk.size = null)
使用apply类向量化操作后,常常产生大规模列表,可能需要将列表转成一个完整的大数据框。
以上为个人经验,希望能给大家一个参考,也希望大家多多支持。如有错误或未考虑完全的地方,望不吝赐教。