决策树法的步骤

决策树法的步骤,第1张

决策树法的几个关键步骤是:

1、画出决策树,画决策树的过程也就是对未来可能发生的各种事件进行周密思考、预测的过程,把这些情况用树状图表示出来.先画决策点,再找方案分枝和方案点.最后再画出概率分枝。

2、由专家估计法或用试验数据推算出概率值.并把概率写在概率分枝的位置上。

3、计算益损期望值,从树梢开始,由右向左的顺序进行.用期望值法计算.若决策目标是盈利时,比较各分枝,取期望值最大的分枝,其他分枝进行修剪。

扩展资料

决策树的优启老点

1、决策树易于理解和实现. 人们在通过解释后都有能力去理解决策树所表达的意义。

2、对于决策树,数据的准备往往是简单或者是不必要的 . 其他的租枣技术往往要求先把数据一般化,比如去掉多余的或者空白的属性。

3、能够同时处理数据型和常规型属性。其他的技术往往要求数据属性的单一。

4、 在相对短的时间内能够对大型数据源做出可行且效果良好的结果。

5、对缺失值不敏感

6、可以处理不相关特征数据

7、效率高,决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树的深度。

决策树的缺点

1、对连续性的字段比较难预测。

2、对有时间顺序的数据,需要很多预处理的工作。

3、当类别太多时,错误可能就会增加的比较快。

4、一般的算悄型升法分类的时候,只是根据一个字段来分类。

5、在处理特征关联性比较强的数据时表现得不是太好

1、特征选择

特征选择决定了使用哪些特征来做判断。在训练数据集中,每个样本的属衡颤空性可能有很多个,不同属性的作用有咐瞎大有小。因而特征选择的作用就是筛选出跟分类结果相关性较高的特征,也就是分类能力较强的特征。在特征选择中通常使用的洞颂准则是:信息增益。

2、决策树生成

选择好特征后,就从根节点触发,对节点计算所有特征的信息增益,选择信息增益最大的特征作为节点特征,根据该特征的不同取值建立子节点;对每个子节点使用相同的方式生成新的子节点,直到信息增益很小或者没有特征可以选择为止。

3、决策树剪枝

剪枝的主要目的是对抗「过拟合」,通过主动去掉部分分支来降低过拟合的风险。

【简介】

决策树是一种解决分类问题的算法,决策树算法采用树形结构,使用层层推理来实现最终的分类。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/12431107.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-25
下一篇 2023-05-25

发表评论

登录后才能评论

评论列表(0条)

保存