决策树 算法原理

2023-12-05 14:27:40 浏览数 (2)

决策树 算法原理

决策树的原理

  • 决策树: 从训练数据中学习得出一个树状结构的模型
  • 决策树属于判别模型
  • 决策树是一种树状结构,通过做出一系列决策 (选择) 来对数据进行划分,这类似于针对一系列问题进行选择。
  • 决策树的决策过程就是从根节点开始,测试待分类项中对应的特征属性,并按照其值选择输出分支,直到叶子节点,将叶子节点的存放的类别作为决策结果。
  • 决策树算法是一种归纳分类算法它通过对训练集的学习,挖掘出有用的规则,用于对新数据进行预测。
  • 决策树算法属于监督学习方法
  • 决策树归纳的基本算法是贪心算法自顶向下来构建决策树。
  • 贪心算法:在每一步选择中都采取在当前状态下最好/优的选择
  • 在决策树的生成过程中,分割方法即属性选择的度量是关键。

决策树的特点

优点

  • 推理过程容易理解,计算简单,可解释性强
  • 比较适合处理有缺失属性的样本。
  • 可自动忽略目标变量没有贡献的属性变量,也为判断属性变量的重要性减少变量的数目提供参考。 缺点
  • 容易造成过拟合,需要采用剪枝操作.
  • 忽略了数据之间的相关性。
  • 对于各类别样本数量不一致的数据,信息增益会偏向于那些更多数值的特征

决策树的三种基本类型

  • 建立决策树的关键,即在当前状态下选择哪个属性作为分类依据。根据不同的目标函数,建立决策树主要有一下三种算法: ID3(lterativeDichotomiser)、C4.5CART(Classification And Regression Tree).

下次博客简述ID3算法、C4.5算法、CART算法

0 人点赞