目录
前言
一、决策树的基本认识
二、决策树的优势
三、基本流程
四、决策树的使用
前言
有很多新手刚刚接触大数据与人工智能方向学习,如果不知道怎么着手的,跟我一起慢慢进步叭~
提示:以下是本篇文章正文内容,下面案例可供参考
一、决策树的基本认识决策树:是一类常见的机器学习方法。
顾名思义,决策树是基于树结构来进行决策的,这恰是人类在面临决策问题时一种很自然的处理机制。例如:我们要对“这是好瓜吗”这样的问题进行决策时,通常会进行一系列的判断或子判断:我们先看“它是什么颜色”,如果是“青绿色”,则我们再看“它的根蒂是什么形态?”,如果是“蜷缩”,我们再判断“它敲起来是什么声音?”,最后,我们得出最终决策:这是个好瓜。决策过程如下:
一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策结果,其他每个结点则对应于一个属性测试;每个结点包含的样本集合根据属性测试的结果被划分到子结点中;根结点包含样本全集。从根结点到每个叶结点的路径对应了一个判定测试序列。若为分类树,则决策结果为预测类别;若为回归树,则决策结果为实数值。
二、决策树的优势决策树的优势:①语义可表示性:从根节点到叶节点的一条决策规则为合取式,决策规则与决策规则之间是析取式,利用合取式和析取式获得某个类别的明确描述;②决策速度快:只需一系列关于待决策样本的简单查询,即可对样本的输出做出判断;③可以很自然地嵌入专家的先验知识。
三、基本流程决策树学习的目的是为了产生一棵泛化能力强,即处理未见示例(样本)能力强的决策树,其基本流程遵循简单且直观的"分而治之" (divide-and-conquer) 策略。
归纳:a.特征的选择:基于训练样本集,从中选择最优化分特征
b.决策树的生成(模型的局部选择):递归生成决策树,拟合训练样本
c.决策树的剪枝(模型的全局选择):简化模型,使其泛化能力更好,许多分支反映的是训练样本中的噪声和孤立点
四、决策树的使用模型的使用过程:从根节点开始,对输入样本的特征取值提问,根据不同的回答,转向相应的分支,在到达新的结点处,做类似的分支判断。持续上述过程,直到叶子结点,输出该叶子结点对应的类别标记(或函数值)。
总结
以上只是对决策树的初步认识,更深入的学习请参考后几篇博客呦~
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)