决策树3: 特征选择之寻找最优划分

2019-12-23 21:40:27 浏览数 (1)

0x00 前言

决策树算法的三个步骤:特征选择、决策树生成、决策树剪枝。其中特征选择要解决的核心问题就是:

  • 每个节点在哪个维度上做划分?
  • 某个维度在哪个值上做划分?

划分的依据是: 要让数据划分成两部分之后,系统整体的信息熵降低。

具体方法是: 对所有的划分可行性进行搜索。下一篇我们模拟在一个节点上进行搜索,找到一个节点上信息熵的最优划分。

那么问题来了: 我们如何找到各个特征/节点上的最优划分呢?

0x01 信息熵的最优划分

1.1 模拟贷款申请

现在我们以银行贷款申请业务为例,模拟四个特征,分别是:年龄、有工作、有房子、信贷情况。

下面就通过代码实现,找到当前应该在哪个特征维度上的哪个值进行最优划分:

1.2 代码实现

代码语言:javascript复制
import numpy as npfrom collections import Counterfrom math import log
# 每列:['年龄','有工作','有自己的房子','信贷情况','是否申请贷款']dataSet=np.array([[0, 0, 0, 0, 0],                  [0, 0, 0, 1, 0],                  [0, 1, 0, 1, 1],                  [0, 1, 1, 0, 1],                  [0, 0, 0, 0, 0],                  [1, 0, 0, 0, 0],                  [1, 0, 0, 1, 0],                  [1, 1, 1, 1, 1],                  [1, 0, 1, 2, 1],                  [1, 0, 1, 2, 1],                  [2, 0, 1, 2, 1],                  [2, 0, 1, 1, 1],                  [2, 1, 0, 1, 1],                  [2, 1, 0, 2, 1],                  [2, 0, 0, 0, 0]])featList = ['年龄','有工作','有自己的房子','信贷情况']
"""函数说明:计算给定标签的经验熵(信息熵)Parameters:    y:使用标签y计算信息熵,,此时传递y是多维数组    计算信息熵需要每种类别出现的概率p,因此传入包含分类信息的标签yReturns:    entropy:经验熵"""def calEntropy(y):    # 计数器,统计y中所有类别出现的次数    # 扁平化,将嵌套的多维数组变成一维数组    counter = Counter(y.flatten())    entropy = 0    for num in counter.values():        p = num / len(y)        entropy  = -p * log(p)    return entropy
"""函数说明:根据传递进来的特征维度及值,将数据划分为2类Parameters:    X,y,featVec,value:特征向量、标签、特征维度、值Returns:    返回划分为两类的后的数据"""def split(X, y, featVec, value):    # 使用维度featVect上的value,将数据划分成左右两部分    # 得到的布尔向量,传入array中做索引,即可找出满足条件的相应数据(布尔屏蔽)    index_a = (X[:,featVec] <= value)    index_b = (X[:,featVec] > value)    return X[index_a], X[index_b], y[index_a], y[index_b]    
"""函数说明:寻找最优划分Parameters:    X,y:特征向量、标签Returns:    返回最优熵,以及在哪个维度、哪个值进行划分"""def try_split(X, y):    # 搞一个熵的初始值:正无穷    best_entropy = float('inf')    best_featVec = -1    # 特征向量    best_value = -1    # 遍历每一个特征维度(列)    for featVec in range(X.shape[1]):        # 然后需要找到每个特征维度上的划分点。        # 找出该维度上的每个两个样本点的中间值,作为候选划分点。        # 为了方便寻找候选划分点,可以对该维度上的数值进行排序,        # argsort函数返回的是数组值从小到大的索引值(不打乱原来的顺序)        sort_index = np.argsort(X[:,featVec])                for i in range(1, len(X)):            if X[sort_index[i-1], featVec] != X[sort_index[i], featVec]:                value = (X[sort_index[i-1], featVec]   X[sort_index[i], featVec]) / 2                X_l, X_r, y_l, y_r = split(X, y, featVec, value)                # 要求最优划分,需要看在此划分下得到的两个分类数据集的熵之和是否是最小的                entropy = calEntropy(y_l)   calEntropy(y_r)                if entropy < best_entropy:                    best_entropy, best_featVec, best_value = entropy, featVec, value    return best_entropy, best_featVec, best_value          best_entropy, best_featVec, best_value = try_split(X, y)print("最优熵:", best_featVec)print("在哪个维度熵进行划分:", best_featVec)print("在哪个值上进行划分:", best_value)

输出:最优熵:0.6365141682948128在哪个维度熵进行划分:2在哪个值上进行划分:0.5

也就是说,根据穷举各个字段上的最优熵,可以得知,在第3个特征(有自己的房子)上,以0.5为阈值进行分类,可以得到最小熵。

0x02 信息增益&信息增益率最优划分

2.1 信息增益最优划分实现

PS:下面的代码是都是干货,多读读注释,看懂了就理解透彻了

代码语言:javascript复制
import numpy as npfrom collections import Counterfrom math import log
# 每列:['年龄','有工作','有自己的房子','信贷情况','是否申请贷款'],其中'是否申请贷款'是labeldataSet=np.array([[0, 0, 0, 0, 0],                  [0, 0, 0, 1, 0],                  [0, 1, 0, 1, 1],                  [0, 1, 1, 0, 1],                  [0, 0, 0, 0, 0],                  [1, 0, 0, 0, 0],                  [1, 0, 0, 1, 0],                  [1, 1, 1, 1, 1],                  [1, 0, 1, 2, 1],                  [1, 0, 1, 2, 1],                  [2, 0, 1, 2, 1],                  [2, 0, 1, 1, 1],                  [2, 1, 0, 1, 1],                  [2, 1, 0, 2, 1],                  [2, 0, 0, 0, 0]])X = dataSet[:,:4]y = dataSet[:,-1:]strs = ['年龄','有工作','有自己的房子','信贷情况','是否申请贷款']

"""函数说明:计算经验熵Parameters:    dataSet:样本数据集DReturns:    entory:经验熵"""def calEntropy(dataSet):    #返回数据集行数    numEntries=len(dataSet)    #保存每个标签(label)出现次数的字典:<label:出现次数>    labelCounts={}    #对每组特征向量进行统计    for featVec in dataSet:        #提取标签信息        currentLabel=featVec[-1]        #如果标签没有放入统计次数的字典,添加进去        if currentLabel not in labelCounts.keys():            labelCounts[currentLabel]=0        #label计数        labelCounts[currentLabel] =1        entory=0.0    #计算经验熵    for key in labelCounts:        #选择该标签的概率        prob=float(labelCounts[key])/numEntries         #利用公式计算        entory-=prob*log(prob,2)    return entory 

"""函数说明:得到当前特征条件下的小类的所有样本集合(即不包含当前特征的特征样本集)Parameters:    dataSet:样本数据集D    curtFeatIndex:当前用来划分数据集的特征A的位置    categories:特征A所有可能分类的集合Returns:    otherFeatSets:不包含当前特征的特征样本集"""def currentConditionSet(dataSet, curtFeatIndex, categroy):    otherFeatSets = []    # 对于数据集中的所有特征向量,抛去当前特征后拼接好的集合    for featVec in dataSet:        if featVec[curtFeatIndex] == categroy:            otherFeatSet = np.append(featVec[:curtFeatIndex],featVec[curtFeatIndex 1:])            otherFeatSets.append(otherFeatSet)     return otherFeatSets

"""函数说明:在选择当前特征的条件下,计算熵,即条件熵Parameters:    dataSet:样本数据集D    curtFeatIndex:当前用来划分数据集的特征A的位置    categories:特征A所有可能分类的集合Returns:    conditionalEnt:返回条件熵"""def calConditionalEnt(dataSet, curtFeatIndex, categories):    conditionalEnt = 0    # 对于每一个分类,计算选择当前特征的条件下条件熵    # 比如在选择“年龄”这一特征下,共有“老中青”三个小分类    for categroy in categories:        # 得到当前特征条件下的小类的所有样本集合,即不包含当前特征的特征样本集        # 如得到在选择“青年”这个小类下一共有5个样本,且不包含“年龄”这一特征        cdtSetCategroy = currentConditionSet(dataSet, curtFeatIndex, categroy)        # 计算当前特征条件下的小分类,占总分类的比例        prob = len(cdtSetCategroy) / float(dataSet.shape[0])        # 累加得到条件熵        conditionalEnt  = prob * calEntropy(cdtSetCategroy)    return conditionalEnt

"""函数说明:计算信息增益Parameters:    baseEntropy:划分样本集合D的熵是为H(D),即基本熵    dataSet:样本数据集D    curtFeatIndex:当前用来划分数据集的特征A的位置Returns:    infoGain:信息增益值"""def calInfoGain(baseEntropy,dataSet,curtFeatIndex):        conditionalEnt = 0.0        # categories是所有特征向量中当前特征的对应值的set集合(去重复)    # 相当于该特征一共有几种分类,如“年龄”这一特征,分为“老中青”三类    categories = set(dataSet[:,curtFeatIndex])        # 计算划分后的数据子集(给定特征A的情况下,数据集D)的条件熵(经验条件熵)H(D|A)    conditionalEnt = calConditionalEnt(dataSet,curtFeatIndex,categories)        # 计算信息增益:g(D,A)=H(D)−H(D|A)    infoGain = baseEntropy - conditionalEnt        #打印每个特征的信息增益    print("第%d个特征的增益为%.3f" % (curtFeatIndex, infoGain))    return infoGain

"""函数说明:寻找最优划分Parameters:    dataSet:数据集Returns:    打印最优划分结果"""def optimalPartition(dataSet):    bestInfoGain = -1   # 最佳信息增益初始值    bestFeatVec = -1    # 最佳划分的特征向量    # 划分前样本集合D的熵H(D),即基本熵    baseEntropy = calEntropy(dataSet)        # 遍历每一个特征维度(列),得到基于当前特征划分的信息增益    for curtFeatIndex in range(dataSet.shape[1]-1):                # 计算信息增益        infoGain = calInfoGain(baseEntropy, dataSet, curtFeatIndex)                # 选取最优信息增益的划分        if (infoGain > bestInfoGain):            #更新信息增益,找到最大的信息增益            bestInfoGain = infoGain            #记录信息增益最大的特征的索引值            bestFeatVec = curtFeatIndex        print("最佳的划分为第%d个特征,是”%s“,信息增益为%.3f" % (bestFeatVec,featList[bestFeatVec],bestInfoGain))    return bestFeatVec     
optimalPartition(dataSet)

输出:

第0个特征的增益为0.083第1个特征的增益为0.324第2个特征的增益为0.420第3个特征的增益为0.363最佳的划分为第2个特征,是”有自己的房子“,信息增益为0.420

2.2 信息增益率最优划分实现

根据信息增益率的定义,对上面的代码进行改造,可以得到信息增益率的最优选择实现

代码语言:javascript复制
"""函数说明:计算惩罚参数,信息增益g(D,A)与训练数据集D关于特征A的值的熵HA(D)之比Parameters:    dataSet:样本数据集D    curtFeatIndex:当前用来划分数据集的特征A的位置    categories:特征A所有可能分类的集合Returns:    conditionalEnt:惩罚参数"""def calPenaltyPara(dataSet, curtFeatIndex, categories):    penaltyItem = 1    # 对于每一个分类,计算选择当前特征的条件下条件熵    # 比如在选择“年龄”这一特征下,共有“老中青”三个小分类    for categroy in categories:        # 得到当前特征条件下的小类的所有样本集合,即不包含当前特征的特征样本集        # 如得到在选择“青年”这个小类下一共有5个样本,且不包含“年龄”这一特征        cdtSetCategroy = currentConditionSet(dataSet, curtFeatIndex, categroy)        # 计算当前特征条件下的小分类,占总分类的比例        prob = len(cdtSetCategroy) / float(dataSet.shape[0])        # 累加得到惩罚项        penaltyItem  = -prob * log(prob,2)    return penaltyItem
"""函数说明:计算信息增益率(惩罚参数 * 信息增益)Parameters:    baseEntropy:划分样本集合D的熵是为H(D),即基本熵    dataSet:样本数据集D    curtFeatIndex:当前用来划分数据集的特征A的位置Returns:    infoGain:信息增益值"""def calInfoGainRate(baseEntropy,dataSet,curtFeatIndex):    infoGainRate = 0.0    # 计算信息增益    infoGain = calInfoGain(baseEntropy,dataSet,curtFeatIndex)    # 得到该特征的所有分类    categories = set(dataSet[:,curtFeatIndex])    # 计算惩罚项    penaltyItem = calPenaltyPara(dataSet, curtFeatIndex, categories)    # 计算信息增益率    infoGainRatio = infoGain / penaltyItem        #打印每个特征的信息增益率    print("第%d个特征的增益率为%.3f" % (curtFeatIndex, infoGainRatio))    return infoGainRatio
"""函数说明:寻找最优划分Parameters:    dataSet:数据集Returns:    打印最优划分结果"""def optimalPartition(dataSet):    bestInfoGainRatio = 0.0   # 最佳信息增益率初始值    bestFeatVec = -1    # 最佳划分的特征向量    # 划分前样本集合D的熵H(D),即基本熵    baseEntropy = calEntropy(dataSet)        # 遍历每一个特征维度(列),得到基于当前特征划分的信息增益    for curtFeatIndex in range(dataSet.shape[1]-1):                # categories是所有特征向量中当前特征的对应值的set集合(去重复)        # 相当于该特征一共有几种分类,如“年龄”这一特征,分为“老中青”三类        #categories = set(dataSet[:,curtFeatIndex])                # 计算信息增益率        infoGainRatio = calInfoGainRate(baseEntropy, dataSet, curtFeatIndex)                # 选取最优信息增益率的划分        if (infoGainRatio > bestInfoGainRatio):            #更新信息增益率,找到最大的信息增益率            bestInfoGainRatio = infoGainRatio            #记录信息增益率最大的特征的索引值            bestFeatVec = curtFeatIndex        print("最佳的划分为第%d个特征,是”%s“,信息增益率为%.3f" % (bestFeatVec,strs[bestFeatVec],bestInfoGainRatio))    return     
optimalPartition(dataSet)

输出:

第0个特征的增益率为0.032第1个特征的增益率为0.169第2个特征的增益率为0.213第3个特征的增益率为0.141最佳的划分为第2个特征,是”有自己的房子“,信息增益率为0.213

0x03 基尼系数最优划分

3.1 基尼系数最优划分实现

代码语言:javascript复制
"""函数说明:计算基尼系数Parameters:    y:使用标签y计算信息熵,此时传递y是多维数组Returns:    entropy:经验熵"""def calGini(y):    # 计数器,统计y中所有类别出现的次数    # 扁平化,将嵌套的多维数组变成一维数组    counter = Counter(y.flatten())    gini = 1    for num in counter.values():        p = num / len(y)        gini -= p ** 2    return gini

"""函数说明:寻找最优划分Parameters:    X,y:特征向量、标签Returns:    返回最优熵,以及在哪个维度、哪个值进行划分"""def try_split(X, y):    # 搞一个基尼系数的初始值:正无穷    bestGini = float('inf')    bestFeatVec = -1    # 特征向量    bestValue = -1    # 遍历每一个特征维度(列)    for featVec in range(X.shape[1]):        # 然后需要找到每个特征维度上的划分点。        # 找出该维度上的每个两个样本点的中间值,作为候选划分点。        # 为了方便寻找候选划分点,可以对该维度上的数值进行排序,        # argsort函数返回的是数组值从小到大的索引值(不打乱原来的顺序)        sort_index = np.argsort(X[:,featVec])                for i in range(1, len(X)):            if X[sort_index[i-1], featVec] != X[sort_index[i], featVec]:                value = (X[sort_index[i-1], featVec]   X[sort_index[i], featVec]) / 2                X_l, X_r, y_l, y_r = split(X, y, featVec, value)                # 要求最优划分,需要看在此划分下得到的两个分类数据集的熵之和是否是最小的                gini = calGini(y_l)   calGini(y_r)                if gini < bestGini:                    bestGini, bestFeatVec, bestValue = gini, featVec, value    return bestGini, bestFeatVec, bestValue
bestGini, bestFeatVec, bestValue = try_split(X, y)print("最优基尼系数:", bestGini)print("在哪个维度上进行划分:", bestFeatVec)print("在哪个值上进行划分:", bestValue)

输出:

最优基尼系数:0.4444444444444445在哪个维度上进行划分:2在哪个值上进行划分:0.5

0xFF 总结

结合概念,好好看代码。代码研究明白,你就悟了!加油吧少年!

0 人点赞