C语言用决策树ID3算法实现鸢尾花分类 笔记

C语言用决策树ID3算法实现鸢尾花分类 笔记,第1张

C语言用决策树ID3算法实现鸢尾花分类 笔记
  1. 决策树(ID3算法)的基本知识
  2. 鸢尾花数据集的简单介绍
  3. 用决策树实现鸢尾花分类
  4. 总结感想
  5. 拓展

1.决策树ID3算法:

决策树学习是以训练或样本数据集为基础的归纳学习算法,用于分类和预测的重要技术。划分后,分支节点的纯度越来越高。

ID3核心算法思想:利用信息熵原理选择信息增益最大的属性作为分类属性,递归地拓展决策树的分支,完成决策树的构造。
ID3决策树的生成步骤:

1.选择决策树的根节点,选择标准:根据属性的信息增益,信息增益大的特征具有更强的分类能力;
2.节点属性划分;
3.对划分的子集按照上述过程进行反复的迭代获得树的所有内部节点;
4.最后根据节点、内部节点及叶节点间的关系来构建决策树。

简单的基础概念
a.信息熵:表示随机变量不确定性的度量,也就是熵越大,变量的不确定性越大。设x是一个有限值的离散随机变量,其概率分布为:P(X=Xi)=Pi,(i=1,2,3,…,n)
则随机变量x的熵定义为:
H(x)=-Pilog2Pi(i=1,2,3,…,n)的一个总和
b.条件熵:H(y|x)表示在已知随机变量X条件下随机变量Y的不确定性,随机变量X给定的条件下随机变量Y的条件熵为:
H(y|x)=PiH(y|x=Xi),(i=1,2,3,…n)的一个总和 Pi=P(x=Xi)
c.信息增益:特征A对训练数据集D的信息增益g(D,A),定义为集合D的经验熵H(D),与特征A给定条件下D的经验条件熵H(D|A)之差,即:
g(D1A)=h(D)-H(D|A)
信息增益大的特征具有更强的分类。

2.鸢尾花数据集的简单介绍
以下是鸢尾花数据集:

1,5.1,3.5,1.4,0.2,setosa
2,4.9,3,1.4,0.2,setosa
3,4.7,3.2,1.3,0.2,setosa
4,4.6,3.1,1.5,0.2,setosa
5,5,3.6,1.4,0.2,setosa
6,5.4,3.9,1.7,0.4,setosa
7,4.6,3.4,1.4,0.3,setosa
8,5,3.4,1.5,0.2,setosa
9,4.4,2.9,1.4,0.2,setosa
10,4.9,3.1,1.5,0.1,setosa
11,5.4,3.7,1.5,0.2,setosa
12,4.8,3.4,1.6,0.2,setosa
13,4.8,3,1.4,0.1,setosa
14,4.3,3,1.1,0.1,setosa
15,5.8,4,1.2,0.2,setosa
16,5.7,4.4,1.5,0.4,setosa
17,5.4,3.9,1.3,0.4,setosa
18,5.1,3.5,1.4,0.3,setosa
19,5.7,3.8,1.7,0.3,setosa
20,5.1,3.8,1.5,0.3,setosa
21,5.4,3.4,1.7,0.2,setosa
22,5.1,3.7,1.5,0.4,setosa
23,4.6,3.6,1,0.2,setosa
24,5.1,3.3,1.7,0.5,setosa
25,4.8,3.4,1.9,0.2,setosa
26,5,3,1.6,0.2,setosa
27,5,3.4,1.6,0.4,setosa
28,5.2,3.5,1.5,0.2,setosa
29,5.2,3.4,1.4,0.2,setosa
30,4.7,3.2,1.6,0.2,setosa
31,4.8,3.1,1.6,0.2,setosa
32,5.4,3.4,1.5,0.4,setosa
33,5.2,4.1,1.5,0.1,setosa
34,5.5,4.2,1.4,0.2,setosa
35,4.9,3.1,1.5,0.2,setosa
36,5,3.2,1.2,0.2,setosa
37,5.5,3.5,1.3,0.2,setosa
38,4.9,3.6,1.4,0.1,setosa
39,4.4,3,1.3,0.2,setosa
40,5.1,3.4,1.5,0.2,setosa
41,5,3.5,1.3,0.3,setosa
42,4.5,2.3,1.3,0.3,setosa
43,4.4,3.2,1.3,0.2,setosa
44,5,3.5,1.6,0.6,setosa
45,5.1,3.8,1.9,0.4,setosa
46,4.8,3,1.4,0.3,setosa
47,5.1,3.8,1.6,0.2,setosa
48,4.6,3.2,1.4,0.2,setosa
49,5.3,3.7,1.5,0.2,setosa
50,5,3.3,1.4,0.2,setosa
51,7,3.2,4.7,1.4,versicolor
52,6.4,3.2,4.5,1.5,versicolor
53,6.9,3.1,4.9,1.5,versicolor
54,5.5,2.3,4,1.3,versicolor
55,6.5,2.8,4.6,1.5,versicolor
56,5.7,2.8,4.5,1.3,versicolor
57,6.3,3.3,4.7,1.6,versicolor
58,4.9,2.4,3.3,1,versicolor
59,6.6,2.9,4.6,1.3,versicolor
60,5.2,2.7,3.9,1.4,versicolor
61,5,2,3.5,1,versicolor
62,5.9,3,4.2,1.5,versicolor
63,6,2.2,4,1,versicolor
64,6.1,2.9,4.7,1.4,versicolor
65,5.6,2.9,3.6,1.3,versicolor
66,6.7,3.1,4.4,1.4,versicolor
67,5.6,3,4.5,1.5,versicolor
68,5.8,2.7,4.1,1,versicolor
69,6.2,2.2,4.5,1.5,versicolor
70,5.6,2.5,3.9,1.1,versicolor
71,5.9,3.2,4.8,1.8,versicolor
72,6.1,2.8,4,1.3,versicolor
73,6.3,2.5,4.9,1.5,versicolor
74,6.1,2.8,4.7,1.2,versicolor
75,6.4,2.9,4.3,1.3,versicolor
76,6.6,3,4.4,1.4,versicolor
77,6.8,2.8,4.8,1.4,versicolor
78,6.7,3,5,1.7,versicolor
79,6,2.9,4.5,1.5,versicolor
80,5.7,2.6,3.5,1,versicolor
81,5.5,2.4,3.8,1.1,versicolor
82,5.5,2.4,3.7,1,versicolor
83,5.8,2.7,3.9,1.2,versicolor
84,6,2.7,5.1,1.6,versicolor
85,5.4,3,4.5,1.5,versicolor
86,6,3.4,4.5,1.6,versicolor
87,6.7,3.1,4.7,1.5,versicolor
88,6.3,2.3,4.4,1.3,versicolor
89,5.6,3,4.1,1.3,versicolor
90,5.5,2.5,4,1.3,versicolor
91,5.5,2.6,4.4,1.2,versicolor
92,6.1,3,4.6,1.4,versicolor
93,5.8,2.6,4,1.2,versicolor
94,5,2.3,3.3,1,versicolor
95,5.6,2.7,4.2,1.3,versicolor
96,5.7,3,4.2,1.2,versicolor
97,5.7,2.9,4.2,1.3,versicolor
98,6.2,2.9,4.3,1.3,versicolor
99,5.1,2.5,3,1.1,versicolor
100,5.7,2.8,4.1,1.3,versicolor
101,6.3,3.3,6,2.5,virginica
102,5.8,2.7,5.1,1.9,virginica
103,7.1,3,5.9,2.1,virginica
104,6.3,2.9,5.6,1.8,virginica
105,6.5,3,5.8,2.2,virginica
106,7.6,3,6.6,2.1,virginica
107,4.9,2.5,4.5,1.7,virginica
108,7.3,2.9,6.3,1.8,virginica
109,6.7,2.5,5.8,1.8,virginica
110,7.2,3.6,6.1,2.5,virginica
111,6.5,3.2,5.1,2,virginica
112,6.4,2.7,5.3,1.9,virginica
113,6.8,3,5.5,2.1,virginica
114,5.7,2.5,5,2,virginica
115,5.8,2.8,5.1,2.4,virginica
116,6.4,3.2,5.3,2.3,virginica
117,6.5,3,5.5,1.8,virginica
118,7.7,3.8,6.7,2.2,virginica
119,7.7,2.6,6.9,2.3,virginica
120,6,2.2,5,1.5,virginica
121,6.9,3.2,5.7,2.3,virginica
122,5.6,2.8,4.9,2,virginica
123,7.7,2.8,6.7,2,virginica
124,6.3,2.7,4.9,1.8,virginica
125,6.7,3.3,5.7,2.1,virginica
126,7.2,3.2,6,1.8,virginica
127,6.2,2.8,4.8,1.8,virginica
128,6.1,3,4.9,1.8,virginica
129,6.4,2.8,5.6,2.1,virginica
130,7.2,3,5.8,1.6,virginica
131,7.4,2.8,6.1,1.9,virginica
132,7.9,3.8,6.4,2,virginica
133,6.4,2.8,5.6,2.2,virginica
134,6.3,2.8,5.1,1.5,virginica
135,6.1,2.6,5.6,1.4,virginica
136,7.7,3,6.1,2.3,virginica
137,6.3,3.4,5.6,2.4,virginica
138,6.4,3.1,5.5,1.8,virginica
139,6,3,4.8,1.8,virginica
140,6.9,3.1,5.4,2.1,virginica
141,6.7,3.1,5.6,2.4,virginica
142,6.9,3.1,5.1,2.3,virginica
143,5.8,2.7,5.1,1.9,virginica
144,6.8,3.2,5.9,2.3,virginica
145,6.7,3.3,5.7,2.5,virginica
146,6.7,3,5.2,2.3,virginica
147,6.3,2.5,5,1.9,virginica
148,6.5,3,5.2,2,virginica
149,6.2,3.4,5.4,2.3,virginica
150,5.9,3,5.1,1.8,virginica

总共包含 150 行数据,每一行数据由 4 个特征值及一个目标值组成。其中 4 个特征值分别为:萼片长度、萼片宽度、花瓣长度、花瓣宽度。而目标值及为三种不同类别的鸢尾花,分别为:Iris Setosa,Iris Versicolour,Iris Virginica。

3. 如何用决策树实现鸢尾花分类
运用ID3算法进行实现,代码如下:

					
										


					

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/4750480.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-11-08
下一篇 2022-11-08

发表评论

登录后才能评论

评论列表(0条)

保存