决策树
决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。
由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。Entropy = 系统的凌乱程度,使用算法ID3, C4.5和C5.0生成树算法使用熵。
公式
当然也有推荐以2为底的对数
求两点分布的信息熵
代码语言:javascript复制import numpy as np
import matplotlib.pyplot as plt
p = np.linspace(0.0000001,1,100)
h = -(1-p)*np.log(1-p) - p*np.log(p) # 公式
plt.plot(p,h)
plt.show()
图像如下:
在这里插入图片描述
即如果概率都是0.5的信息熵最大,举个例子如果两个球队的获胜概率都是0.5,那么会有更多的人去观看,带来的信息冲量也是最大的。也就是如果比赛激烈那些引起的信息流量也是非常庞大的。
Gini系数(基尼系数)
Gini系数是一种与信息熵类似的做特征选择的方式,可以用来数据的不纯度。
决策树如何可视化
先处理一个问题,如何将一个决策树可视化
安装好Graphviz
因为要使用sklearn自带的 export_graphviz
网址:http://www.graphviz.org/
设置环境变量
cmd执行命令
代码语言:javascript复制pip install pydotplus
如何绘画
这里使用的是export_graphviz
代码语言:javascript复制import numpy as np
from sklearn.tree import DecisionTreeClassifier
from matplotlib import pyplot as plt
import pydotplus
from sklearn import tree
X = np.array([[2, 2],
[2, 1],
[2, 3],
[1, 2],
[1, 1],
[3, 3]])
y = np.array([0, 1, 1, 1, 0, 0])
plt.style.use('fivethirtyeight')
plt.rcParams['font.size'] = 18
plt.figure(figsize=(8, 8))
# Plot each point as the label
for x1, x2, label in zip(X[:, 0], X[:, 1], y):
plt.text(x1, x2, str(label), fontsize=40, color='g',
ha='center', va='center')
plt.grid(None)
plt.xlim((0, 3.5))
plt.ylim((0, 3.5))
plt.xlabel('x1', size=20)
plt.ylabel('x2', size=20)
plt.title('Data', size=24)
plt.show()
dec_tree = DecisionTreeClassifier()
print(dec_tree)
dec_tree.fit(X, y)
print(dec_tree.score(X,y))
# export_graphviz
dot_data = tree.export_graphviz(dec_tree, out_file=None,
feature_names=['x1', 'x2'],
class_names=['0', '1'],
filled=True, rounded=True,
special_characters=True)
graph = pydotplus.graph_from_dot_data(dot_data)
# 绘制图片
with open('demo.png', 'wb') as f:
f.write(graph.create_png())
# 绘制pdf
graph.write_pdf('demo.pdf')
pdf和图片一样
具体说下这个决策树
一开始 x1<2.5是判断条件,gini=0.5,就是1-0.52-0.52 = 0.5,说明x1 = x2 ,只有[1,1],[3,3],x1<=2.5,选反的即x1>2.5 ,,决策树先value选[3,3},现在有6个样本。如果x1<=2.5,而且x2>2.5,将[2,3]选出。去掉[3,3] 5个,False是决策树的预测,因为Gini=0或1,它必须做出预测,样本中没有[1,0],它预测为0的分类。每做一次判断,就会做一个预测Gini=0的情况,将它分类,下次遇到[1,0]就将它分为0.