机器学习之集成学习
集成学习(ensemble learning)
在机器学习的有监督学习算法中,我们的目标是学习出一个稳定的且在各个方面表现都较好的模型,但实际情况往往不这么理想,有时我们只能得到多个有偏好的模型(弱监督模型,在某些方面表现的比较好)。集成学习就是组合这里的多个弱监督模型以期得到一个更好更全面的强监督模型,集成学习潜在的思想是即便某一个弱分类器得到了错误的预测,其他的弱分类器也可以将错误纠正回来。单个学习器我们称为弱学习器,相对的集成学习则是强学习器。
- 弱学习器:常指泛化性能略优于随机猜测的学习器:例如在二分类问题桑精度略高于50%的分类器。
- 强学习器:通过一定的方式集成一些弱学习器,达到了超过所有弱学习器的准确度的分类器。
集成学习本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务。集成学习可以用于分类问题集成,回归问题集成,特征选取集成,异常点检测集成等等,可以说所有的机器学习领域都可以看到集成学习的身影。
1. 什么是集成学习?
从下图,对集成学习的思想做一个概括。对于训练集数据,通过训练若干个个体学习器,通过一定的结合策略,来完成学习任务,(常常可以获得比单一学习显著优越的学习器)就可以最终形成一个强学习器。
集成学习是一种技术框架,其按照不同的思路来组合基础模型,从而达到更好的目的。集成学习有两个主要的问题需要解决,第一是如何得到若干个个体学习器,第二是如何选择一种结合策略,将这些个体学习器集合成一个强学习器。
2. 如何得到若干个个体学习器?
对于如何得到若干个个体学习器,这里有两种选择。
第一种是所有的个体学习器都是一个种类的,或者说是同质的。比如都是决策树个体学习器,或者都是神经网络个体学习器。比如bagging和boosting系列。
第二种是所有的个体学习器不全是一个种类的,或者说是异质的。比如我们有一个分类问题,对训练集采用支持向量机个体学习器,逻辑回归个体学习器和朴素贝叶斯个体学习器来学习,再通过某种结合策略来确定最终的分类强学习器。这种集成学习成为stacking。
同质个体学习器按照个体学习器之间是否存在依赖关系可以分为两类。
第一种是个体学习器之间存在强依赖关系,一系列个体学习器基本都需要串行生成,代表算法是boosting系列算法。
第二种是个体学习器之间不存在强依赖关系,一系列个体学习器可以并行生成,代表算法是bagging系列算法。
(1). 集成学习之bagging
代表算法:随机森林(random forest)
bagging(训练多个分类器取平均):从训练集从进行子抽样组成每个基模型所需要的子训练集,对所有基模型预测的结果进行综合产生最终的预测结果:
bagging工作机制:
- 从原始样本集中抽取训练集。每轮从原始样本集中使用bootstraping的方法抽取n个训练样本(在训练集中,有些样本可能被多次抽取到,而有些样本可能一次都没有被抽中),共进行k轮抽取,得到k个训练集。(k个训练集之间是相互独立的);
- 每次使用一个训练集得到一个模型,k个训练集共得到k个模型。(注:这里并没有具体的分类算法或回归方法,我们可以根据具体问题采用不同的分类或回归方法,如决策树、感知器等);
- 对分类问题:将上步得到的k个模型采用投票的方式得到分类结果;对回归问题,计算上述模型的均值作为最后的结果。(所有模型的重要性相同)。
bagging的个体弱学习器的训练集是通过随机采样得到的。通过t次的随机采样,我们就可以得到t个采样集,对于这t个采样集,我们可以分别独立的训练出t个弱学习器,再对这t个弱学习器通过集合策略来得到最终的强学习器。对于这里的随机采样,一般采用的是自助采样法(bootstrap sampling),即对于m个样本的原始训练集,我们每次先随机采集一个样本放入采样集,接着把该样本放回,也就是说下次采样时该样本仍有可能被采集到,这样采集m次,最终可以得到m个样本的采样集,由于是随机采样,这样每次的采样集是和原始训练集不同的,和其他采样集也是不同的,这样得到多个不同的弱学习器。
随机森林(很多个决策树并行放在一起,数据采样随机,特征选择随机,都是有放回的随机选取)是bagging的一个特化进阶版,所谓的特化是因为随机森林的弱学习器都是决策树。所谓的进阶是随机森林在bagging的样本随机采样基础上,又加上了特征的随机选择,其基本思想没有脱离bagging的范畴。bagging和随机森林算法的原理在后面的文章中会专门来讲。
(2). 集成学习之boosting
代表算法:adaboost, xgboost,gbdt
boosting(提升算法,从弱学习器开始加强,通过加权来进行训练):训练过程为阶梯状,基模型按次序一一进行训练(实现上可以做到并行),基模型的训练集按照某种策略每次都进行一定的转化。如果某一个数据在这次分错了,那么在下一次我就会给它更大的权重。对所有基模型预测的结果进行线性综合产生最终的预测结果:
boosting工作机制:
- 首先从训练集用初始权重训练出一个弱学习器1;
- 根据弱学习的学习误差率表现来更新训练样本的权重,使之前弱学习器1学习误差率高的训练样本点的权重变高,即让误差率高的点在后面的弱学习器2中得到更多的重视;
- 然后基于调整权重后的训练集来训练弱学习器2;
- 如此重复进行,直到弱学习器数达到事先指定的数目t;
- 最终将这t个弱学习器通过集合策略进行整合,得到最终的强学习器。
关于boosting的两个核心问题:
1)在每一轮如何改变训练数据的权值或概率分布?
通过提高那些在前一轮被弱分类器分错样例的权值,减小前一轮分对样例的权值,来使得分类器对误分的数据有较好的效果。
2)通过什么方式来组合弱分类器?
通过加法模型将弱分类器进行线性组合,比如:adaboost(adaptive boosting)算法:刚开始训练时对每一个训练例赋相等的权重,然后用该算法对训练集训练t轮,每次训练后,对训练失败的训练例赋以较大的权重,也就是让学习算法在每次学习以后更注意学错的样本,从而得到多个预测函数。通过拟合残差的方式逐步减小残差,将每一步生成的模型叠加得到最终模型。gbdt(gradient boost decision tree),每一次的计算是为了减少上一次的残差,gbdt在残差减少(负梯度)的方向上建立一个新的模型。
(3). 集成学习之stacking
stacking(堆叠各种各样的分类器(knn,svm,rf等等),分阶段操作:第一阶段输入数据特征得出各自结果,第二阶段再用前一阶段结果训练得到分类结果。训练一个模型用于组合其他各个模型): 将训练好的所有基模型对训练基进行预测,第j个基模型对第i个训练样本的预测值将作为新的训练集中第i个样本的第j个特征值,最后基于新的训练集进行训练。同理,预测的过程也要先经过所有基模型的预测形成新的测试集,最后再对测试集进行预测:
stacking工作机制:
- 首先先训练多个不同的模型;
- 然后把之前训练的各个模型的输出为输入来训练一个模型,以得到一个最终的输出。
综上按照个体学习器之间的关系,集成学习一般分为bagging、boosting、stacking三大类(我们可以把它简单地看成并行,串行和树型)。bagging是把各个基模型的结果组织起来,取一个折中的结果;boosting是根据旧模型中的错误来训练新模型,层层改进;stacking是把基模型组织起来,注意不是组织结果,而是组织基模型本身,该方法看起来更灵活,也更复杂。
假设我们得到的t个弱学习器是$\{h_1,h_2,...h_t\}$
(1). 平均法
对于数值类的回归预测问题,通常使用的结合策略是平均法,也就是说,对于若干个弱学习器的输出进行平均得到最终的预测输出。
最简单的平均是算术平均,也就是说最终预测是:$h(x) = \frac{1}{t}\sum\limits_{1}^{t}h_i(x)$。
如果每个个体学习器有一个权重$w$,则最终预测是:$h(x) = \sum\limits_{i=1}^{t}w_ih_i(x)$。
其中$w_i$是个体学习器$h_i$的权重,通常有:$w_i \geq 0 ,\;\;\; \sum\limits_{i=1}^{t}w_i = 1$。
(2). 投票法
对于分类问题的预测,我们通常使用的是投票法。假设我们的预测类别是$\{c_1,c_2,...c_k\}$,对于任意一个预测样本x,我们的t个弱学习器的预测结果分别是$(h_1(x),h_2(x)...h_t(x))$。
最简单的投票法是相对多数投票法,也就是我们常说的少数服从多数,也就是t个弱学习器的对样本x的预测结果中,数量最多的类别ci为最终的分类类别。如果不止一个类别获得最高票,则随机选择一个做最终类别。
稍微复杂的投票法是绝对多数投票法,也就是我们常说的要票过半数。在相对多数投票法的基础上,不光要求获得最高票,还要求票过半数。否则会拒绝预测。
更加复杂的是加权投票法,和加权平均法一样,每个弱学习器的分类票数要乘以一个权重,最终将各个类别的加权票数求和,最大的值对应的类别为最终类别。
(3). 学习法
上面两类方法都是对弱学习器的结果做平均或者投票,相对比较简单,但是可能学习误差较大,于是就有了学习法这种方法,对于学习法,代表方法是stacking,当使用stacking的结合策略时, 我们不是对弱学习器的结果做简单的逻辑处理,而是再加上一层学习器,也就是说,我们将训练集弱学习器的学习结果作为输入,将训练集的输出作为输出,重新训练一个学习器来得到最终结果。在这种情况下,我们将弱学习器称为初级学习器,将用于结合的学习器称为次级学习器。对于测试集,我们首先用初级学习器预测一次,得到次级学习器的输入样本,再用次级学习器预测一次,得到最终的预测结果。
4. 总结
集成方法是将几种机器学习技术组合成一个预测模型的元算法,以达到减小方差(bagging)、偏差(boosting)或改进预测(stacking)的效果。
集成学习法的特点:
① 将多个分类方法聚集在一起,以提高分类的准确率。(这些算法可以是不同的算法,也可以是相同的算法。)
② 集成学习法由训练数据构建一组基分类器,然后通过对每个基分类器的预测进行投票来进行分类
③ 严格来说,集成学习并不算是一种分类器,而是一种分类器结合的方法。
④ 通常一个集成分类器的分类性能会好于单个分类器
⑤ 如果把单个分类器比作一个决策者的话,集成学习的方法就相当于多个决策者共同进行一项决策。
5. 补充
(1). bagging,boosting二者之间的区别
1)样本选择上:
bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。
boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。
2)样例权重:
bagging:使用均匀取样,每个样例的权重相等
boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。
3)预测函数:
bagging:所有预测函数的权重相等。
boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。
4)并行计算:
bagging:各个预测函数可以并行生成
boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。
(2). 决策树与这些算法框架进行结合所得到的新的算法:
1)bagging + 决策树 = 随机森林
2)adaboost + 决策树 = 提升树
3)gradient boosting + 决策树 = gbdt
参考文章:
下一篇: Java 添加、验证PDF 数字签名