产业气象站|如何快速简单的理解决策树的概念?

决策树(DecisionTree)是机器学习中一种常见的算法 , 它的思想非常朴素 , 就像我们平时利用选择做决策的过程 。 决策树是一种基本的分类与回归方法 , 当被用于分类时叫做分类树 , 被用于回归时叫做回归树 。
产业气象站|如何快速简单的理解决策树的概念?
文章图片
一、决策树结构:
顾名思义 , 决策树在逻辑上表现为树的形式 , 包含有节点和向边 。
一般情况下 , 一棵决策树包含一个根节点、若干个内部节点和若干个叶结点 。
根节点:包含样本全集 , 从根节点到每个叶结点的路径对应了一个判定测试序列 。
内部节点:表示一个特征和属性 。 每个内部节点都是一个判断条件 , 并且包含数据集中 , 满足从根节点到该节点所有条件的数据的集合 。 根据内部节点的属性测试结果 , 内部节点对应的数据的集合别分到两个或多个子节点中 。
叶节点:表示一个类 , 对应于决策结果 。 叶节点为最终的类别 , 如果该数据被包含在该叶节点 , 则属于该类别 。
如下图中 , 其中圆和方框分别表示内部节点和叶结点 。
产业气象站|如何快速简单的理解决策树的概念?
文章图片
简而言之 , 决策树是一个利用树的模型进行决策的预测模型 , 表现出的是对象属性与对象值之间的一种映射关系 , 简单明了 , 非常容易理解 。
我们决策树学习的目的是为了产生一棵泛化能力强 , 也就是能够高效、有效处理未见示例的决策树 。
二、决策树的优缺点:
1.决策树的最大优点是 , 对背景知识要求不高 , 计算复杂度也不是很高 , 可以自学习 。
2.属于有监督学习
3.对中间缺失值不敏感
4.解释性强 , 甚至超过线性回归
5.相比传统的回归和分类方法 , 决策树是更接近人的决策模式
6.能够用图形来表示 , 即使不是专业人士也可以轻松理解
7.可以在不创建哑变量的情况下 , 直接处理定性的预测变量 ,
8.决策树的预测准确性相比一般比回归和分类方法比较弱 , 但能够通过用集成学习方法组合大量决策树 , 这样可以显著提升树的预测效果
三、决策树的生成
决策树的生成是一个自顶向下的递归过程 , 其基本思想是以信息熵为度量构造一棵熵值下降最快的树 , 到叶子结点处的熵值为零 。
在决策树算法中有三种情形导致递归返回:
1)当前节点包含的样本属于同一类 , 不需要划分
2)当前属性集为空 , 无法进行划分 。 这种情况下 , 需要将当前节点标记成叶节点 , 并将其类别设定为所含样本最多的类别利用当前节点的后验分布(就是:有样本无属性进行划分)
【产业气象站|如何快速简单的理解决策树的概念?】3)当前结点包含的样本集合为空 , 不能进项划分 。 此时 , 要将当前节点标记为叶节点 , 将其类别设定为其父结点所含样本最多的类别利用父结点的先验分布(就是:无样本有属性)


    推荐阅读