决策树-C4.5
前面的ID3算法已经介绍了决策树的基本概念。 C4.5算法在ID3算法的基础上进行了改进。它利用信息增益比构建决策树,并具有剪枝功能以防止过度拟合。本模块将介绍C4.5算法的决策树构建策略。
欠拟合:训练得到的模型在训练集集测试中表现就很差,准确度很低。
过拟合:训练得到的模型在训练集表现很好,但在测试集表现很差。
信息增益比:特征A对训练集D的信息增益比定义为特征A的信息增益与训练集D对于A的信息熵之比。
信息增益比 Gain (D, A) = i n fo (D, A) H (D, A) 信息增益比 Gain (D, A) = \frac{ info (D, A)} {H (D, A) }信息增益比G艾因(D,A)=H(D,A)在F哦(D,A)
公式在ID3算法中
修剪:在决策树对训练集的预测误差和数的复杂度之间找到一个平衡。剪枝算法的功能是输入生成的决策树和参数,输出剪枝后的决策树。包括先剪枝和后剪枝。
- 先修剪:提前停止树的构建,对树进行“修剪”。提前停止策略定义了树的深度,当到达指定深度时自动停止构建;
- 后剪枝:首先构建完整的子树,将决策树中那些置信度不足(信息增益低)的子树替换为叶子节点(类别)。
决策树构造策略
- 计算训练集,得到各个特征的信息增益比
- 选择当前信息增益比最大的特征作为决策树的头节点,并根据特征的不同属性将其划分为不同的子树。
- 去除该特征后计算在当这个属性满足时剩下的N个特征的信息增益比,并继续划分子树
- 据此递归所有特征划分完成,每个子树结束后都有对应类别。
以图中西瓜数据集(D)描述构造决策树原理
根据公式计算每个特征的信息增益:info(D, color)=0.109, info(D, basic)=0.143, info(D, Knock)=0.141, info(D,texture)=0.381, info( D(脐)=0.289,信息(D,触摸)=0.006
再计算信息增益比:增益 ( D , 颜色 ) = i n f o ( D , 颜色 ) H ( D , 颜色 ) = i n f o ( D , 颜色 ) − ( 6 17 log 2 6 17 + 6 17 log 2 5 17 + 5 17 log 2 5 17 ) = 0.069 增益(D,颜色) = \frac{info(D,颜色)}{H(D,颜色)}=\frac{信息(D,颜色)}{-(\frac{6}{ 17}\log_2\frac{6}{17}+\frac{6}{17}\log_2\frac{5}{17}+\frac{5}{17}\log_2\frac{5}{17} )}=0.069G艾因(D,颜色)=H(D,颜色)在F哦(D, 颜色)=-(17 号6loG217 号6+17 号6loG217 号5+17 号5loG217 号5)在F哦(D,颜色)=0.069
然后计算其他值:Gain(D,base)= 0.046,Gain(D,knock)= 0.051,Gain(D,texture)= 0.043,Gain(D,脐)= 0.072,Gain(D,touch)= 0.028
第一次计算可知Gain(D,肚部)=0.072最大作为决策树根节点,构造决策树:
然后再脐部凹陷,脐部稍凹,脐部平坦的条件下再计算除脐部外的其他特征的信息增益比,继续递归构造子树。
C4.5算法实现构造决策树:
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn import tree #导入树库可视化决策树
from sklearn.tree import DecisionTreeClassifier #导入决策树模型
#加载数据集
iris=load_iris()
#划分数据集和测试集
x_train,x_test,y_train,y_test=train_test_split(iris.data,iris.target,test_size=0.3)
#构造决策树模型
decision_tree=DecisionTreeClassifier(criterion="entropy",max_depth=5) #criterionz指定节点特征选择基准entropy是ID3,c4.5;gini是CART算法 #decision_tree是常用的剪枝参数
#训练决策树
decision_tree=decision_tree.fit(x_train,y_train)
score=decision_tree.score(x_test,y_test)
print(score)
结果:
0.8666666666666667
可视化决策树:
print(tree.plot_tree(decision_tree))
// graphviz 库可视化树
import graphviz
graph = tree.export_graphviz(decision_tree, out_file=None)
graph = graphviz.Source(graph)
graph