欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

python机器学习基础决策树与随机森林概率论

程序员文章站 2022-04-13 08:34:13
目录一、决策树原理概述1.决策树原理2.信息论①信息熵②决策树的分类依据③其他决策树使用的算法④决策树api二、决策树算法案例1.案例概述2.数据处理3.特征工程4.使用决策树进行预测5.决策树优缺点...

一、决策树原理概述

1.决策树原理

决策树的分类原理,相当于程序中的if-then结构,通过条件判断,来决定结果。

2.信息论

①信息熵

假设有32支球队,在不知道任何信息的情况下,以二分法去猜冠军,最多猜log(2)32 = 5次。此时:每个球队的夺冠概率为1/32,那么:

5 = -(1/32log1/32 + 1/32log1/32 + ......)共32项相加。

若事先可以得知一点点信息,则使用二分法猜冠军的时候,次数一定比5次小,那么它的准确信息量应该是:

h = -(p1logp1 + p2logp2 + ... + p32logp32)

则h称为信息熵,单位为比特bit。

python机器学习基础决策树与随机森林概率论

根据以上内容,可知,信息是和消除不确定性相联系的。当毫无信息的时候,信息熵最大,只要有了一定的信息,那么信息熵就会减小,不确定性也会减小。

②决策树的分类依据

信息增益:当得知一个特征条件之后,减少的信息熵的大小。计算公式如下:

python机器学习基础决策树与随机森林概率论

每一个特征所对应的信息增益都可以通过上式计算出来,通过比较,信息增益最大的作为首要的分类标准。也就是说,每一个特征都可能对减小信息熵有作用,并且作用大小不一样。作用越大,减少的信息熵越大,则该特征越重要,便可首先拿这个最重要的作为分类标准。

③其他决策树使用的算法

python机器学习基础决策树与随机森林概率论

其中,基尼系数对样本的划分更加仔细,甚至能对训练集分类达到100%,但通常这种情况下,会导致模型在测试集中的表现不好,因为它为了达到更高的拟合度,会过于针对训练集样本,由此降低了普遍性。

④决策树api

python机器学习基础决策树与随机森林概率论

二、决策树算法案例

1.案例概述

本案例中,使用泰坦尼克号上的乘客数据作为样本,是否存活作为目标值。样本特征包含年龄、性别、目的地、船舱类型等等。我们在模型训练中,只使用了船舱类型(pclass),性别(sex),年龄(age)这三个作为训练集样本特征。

2.数据处理

假设已经获取到了数据集,并赋值给titan

找出特征值和目标值:x = titan[['pclass', 'age', 'sex']] y = titan['survived']

缺失值处理:x['age'].fillna(x['age'].mean(), inplace=true)

分割数据集:x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)

3.特征工程

由于船舱类型和性别的数据都不是数字,因此需要用one-hot编码来代替特征数据。通过字典数据处理,即可生成。因此,需要将训练集转换为字典,通过dictvectorizer转换即可。(注意:转换的是整个训练集,而不是单独转换某几列)

实例化转换器:dict = dictvectorizer(sparse = false)

对训练集转换:x_train = dict.fit_transform(x_train.to_dict,(orient='records'))

对测试集转换:x_test = dict.transform(x_test.to_dict(orient='records'))

4.使用决策树进行预测

预测后可以使用graphviz查看图像化的决策树。需要先安装,将导出的dot文件直接放在graphviz目录下,在命令行,通过 dot -tpng tree.dot -o tree.png命令即可导出png图像。

dec = decisiontreeclassifier()

训练算法:dec.fit(x_train,y_train)

打印准确率:print(dec.score(x_test, y_test))

导出树的结构:tree.export_graphviz(dec, out_file='d:/graphviz/tree.dot', feature_names= [","])

注意,最后一个feature_names,直接在特征工程中,调用dict.get_feature_names,即可输出所需内容。

5.决策树优缺点及改进

优点:

原理及解释较为简单,并且可以将树木可视化

需要很少的数据准备,其他技术通常需要数据归一化

缺点:

决策树学习者可以创建不能很好地推广数据的过于复杂的树,这被称为过拟合。

决策树可能不稳定,因为数据的小变化可能会导致完全不同的树被生成

改进:

减枝cart算法、随机森林

三、随机森林

1.集成学习方法

集成学习通过建立几个模型组合的来解决单一预测问题。它的工作原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成单预测,因此优于任何一个单分类的做出预测。

随机森林就是一种继承学习方法,定义:在机器学习中,随机森林是一个包含多个决策树的分类器,并且其输出的类别是由个别树输出的类别的众数而定。

2.单个树建立过程

①随机在n个样本中,有放回地选择一个样本,重复n次,样本可能重复

②随机在m个特征中选出m个特征,m取值小于总特征m

假如建立了10棵决策树,他们的样本以及特征大多都是不一样的。使用随机有返回的抽样(bootstrap抽样)。

3.随机森林api

python机器学习基础决策树与随机森林概率论

随机森林超参数:

n_estimator:决策树数量

max_depth:每棵树深度限制

4.随机森林使用案例

还是用上面决策树的案例,假设已经准备好了训练集x_train, y_train,测试集x_test, y_test

rf = randomforestclassifier()

由于随机森林有超参数n_estimator,max_depth,因此可以使用网格搜索交叉验证,对不同的参数组合进行一一验证,寻找最好的参数组合模型。

设置超参数取值:param = {'n_estimator':[100,200,300,400,500], 'max_depth':[5,10,15,20]}

实例化算法:gc = gridsearchcv(rf, param_grid=param, cv=2) (假设使用二折验证)

训练算法:gc.fit(x_train, y_train)

输出准确率:gc.score(x_test, y_test)

查看所选择的参数模型:gc.best_params_

5.随机森林的优点

①在当前所有算法中,具有极好的准确率

②能够有效地运行在大数据集上(样本数、特征数)

③能够处理具有高维特征的输入样本,而且不需要降维

④能够评估各个特征在分类问题上的重要性

以上就是python机器学习基础决策树与随机森林概率论的详细内容,更多关于python决策树与随机森林概率论的资料请关注其它相关文章!