机器学习——决策树与随机森林
程序员文章站
2022-05-02 18:58:04
...
机器学习——决策树与随机森林
1.决策树的主要元素:根节点、内部节点、叶节点。其中根节点聚集了所有的样本,内部节点表示根据某个特征进行分类,叶节点根据节点内样本数最多的那一类作为输出。
2.决策树的主要处理方式:根据信息增益、信息增益率或者基尼系数这三个指标来选取局部最优的分类特征。
3.决策树由于是递归过程,所以会出现过拟合现象。需要通过剪枝来使得模型的泛化能力增强。
4.决策树主要形式有分类决策树、回归决策树,针对因变量是分类型变量还是连续型变量。
决策树的主要三个算法,主要的区别在于选择特征的标准。
1. ID3算法 (信息增益)
2. C4,5算法 (信息增益率)
3. CART算法 (基尼系数)
信息增益的理论知识:
1.信息熵
2.条件熵
3.互信息
ID3就是通过对所有特征进行信息增益(互信息)的比较,选择使得信息增益最大的变量作为分类特征。
以上是理论指标的定义,在实际样本中,有经验熵,经验条件熵的定义。
经验熵:设样本为D,样本中有K类,每一类的样本量为Ck。
经验熵
经验条件熵
根据特征进行分类后,特征有n个水平,将样本分为n个部分,其中每一个部分属于K类的样本有Cik个。
ID3
经验熵与条件经验熵做差就得到了信息增益(互信息),根据信息增益的大小选择特征作为分类。并且递归的处理下去就会得到一整颗决策树。
C4,5
C4,5算法与ID3不同之处在于,算法使用了信息增益率代替了信息增益,信息增益偏向于选择属性很多的作为特征,会使得决策树变得很庞大,导致过拟合。当使用信息增益率后,可以有效限制选择属性过多的特征来建立决策树,一定程度上防止过拟合。当A属性过多时,
CART
CART算法简称为分类与回归树,选择特征的标准通过基尼系数实现。
分类误差率的实现
import numpy as np
from matplotlib import pyplot as plt
p=np.linspace(0.001,1,100,endpoint=False)
gini=2*p*(1-p)
ent=-(p*np.log2(p)+(1-p)*np.log2(1-p))/2
error=1-np.max(np.vstack((p,1-p)),0)
plt.plot(p,gini,'r-',label='Gini')
plt.plot(p,ent,'b-',label='Entropy')
plt.plot(p,error,'g-',label='Error')
plt.legend(loc='upper right')
plt.show()
鸢尾花数据集python通过决策树实践
import numpy as np
from sklearn.tree import DecisionTreeClassifier
from sklearn.model_selection import train_test_split
from sklearn import datasets
from sklearn.pipeline import Pipeline
#读取数据,划分训练集和测试集
iris=datasets.load_iris()
x=iris.data[:,:2]
y=iris.target
x_train, x_test, y_train, y_test = train_test_split(x, y, train_size=0.7, random_state=1)
#模型训练
# model=DecisionTreeClassifier(max_depth=3)
# model=model.fit(x_train,y_train)
model = Pipeline([('ss',StandarScaler()),('DCT',DecisionTreeClassifier(criterion='entropy', max_depth=3)
])
model = model.fit(x_train,y_train)
y_test_hat=model.predict(x_test)
res=y_test==y_test_hat
acc=np.mean(res)
print '训练集上的正确率是%.2f%%'%(acc*100)
上一篇: 禁止百度云管家偷偷上传的设置方法
下一篇: vb系统软键盘怎么调用?