概念
定义在特征空间与类空间上的条件概率分布,即给定特征条件下类的条件概率分布;也可以认为是if-then规则的集合
优点
模型具有可读性,分类速度快。
模型
首先,介绍一下决策树模型:
由结点和有向边组成,结点又可分为内部结点和叶结点。内部结点表示一个特征或属性,叶结点表示一个类。
决策树与条件概率分布
决策树所表示的条件概率分布由各个单元给定条件下的类的条件概率分布组成。若X表示特征的随机变量,取值于给定划分下单元的集合,Y表示类的随机变量,取值于类的集合,则该条件概率分布可以表示为P(Y|X)。
各叶结点(单元)上的条件概率往往偏向于某一类,即属于某一类的概率较大。
决策树本质
从训练数据集中归纳出一组分类规则。
步骤
决策树的学习常包含三个步骤:
特征选择
决策树的生成
决策树的剪枝
特征选择
是决定用哪个特征来划分特征空间。三种方法:
信息增益
信息增益比
基尼指数
决策树的生成
基本方法,从根结点出发,对结点计算所有可能的特征的信息增益(或信息增益比或基尼指数),选择信息增益值(或信息增益比或基尼指数)较大的特征作为结点的特征。
几种选择标准的不同(ID3, C4.5, CART)可参考:决策树
决策树的剪枝
通过极小化决策树整体的损失函数或代价函数来实现。
两者的不同:
决策树的生成只考虑了通过提高信息增益或信息增益比对数据进行更好的拟合,而剪枝通过优化损失函数还减小了模型的复杂度。
决策树生成学习局部的模型,而决策树剪枝学习整体的模型。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/179599.html原文链接:https://javaforall.cn