机器学习100天|Day1数据预处理
100天搞定机器学习|Day2简单线性回归分析
100天搞定机器学习|Day3多元线性回归
100天搞定机器学习|Day4-6 逻辑回归
100天搞定机器学习|Day7 K-NN
100天搞定机器学习|Day8 逻辑回归的数学原理
100天搞定机器学习|Day9-12 支持向量机
Day7,我们学习了K最近邻算法(k-NN),了解了其定义,如何工作,介绍了集中常用的距离和k值选择。Day11,通过一个案例实现该算法。 第一步:导入相关库import numpy as npimport matplotlib.pyplot as pltimport pandas as pd
第二步:导入数据集
dataset = pd.read_csv('../datasets/Social_Network_Ads.csv')
为了方便理解,这里我们只取Age年龄和EstimatedSalary估计工资作为特征
X = dataset.iloc[:,[2,3]].valuesy = dataset.iloc[:,4].values
第三步:将数据划分成训练集和测试集
fromsklearn.model_selectionimport train_test_splitX_train,X_test,y_train,y_test = train_test_split(X,y,test_size =0.25,random_state=0)
第四步:特征缩放
from sklearn.preprocessing import StandardScalersc = StandardScaler()X_train = sc.fit_transform(X_train)X_test = sc.transform(X_test)
第五步:使用K-NN对训练集数据进行训练
从sklearn的neighbors类中导入KNeighborsClassifIEr学习器from sklearn.neighbors import KNeighborsClassifIEr
设置好相关的参数 n_neighbors =5(K值的选择,默认选择5)、 metric ='minkowski'(距离度量的选择,这里选择的是闵氏距离(默认参数))、 p = 2 (距离度量metric的附属参数,只用于闵氏距离和带权重闵氏距离中p值的选择,p=1为曼哈顿距离, p=2为欧式距离。默认为2)
classifIEr = KNeighborsClassifIEr(n_neighbors=5,metric =minkowski',p =2)classifIEr.fit(X_train,y_train) KNeighborsClassifIEr(algorithm=auto',metric_params=None,n_jobs=1,n_neighbors=5,p=2uniform')第六步:对测试集进行预测
y_pred = classifIEr.predict(X_test)第七步:生成混淆矩阵混淆矩阵可以对一个分类器性能进行分析,由此可以计算出许多指标,例如:ROC曲线、正确率等
fromsklearn.metricsimport confusion_matrixcm = confusion_matrix(y_test,y_pred)print(cm)[[64 4] [ 3 29]]
print(classification_report(y_test,y_pred))
预测集中的0总共有68个,1总共有32个。 在这个混淆矩阵中,实际有68个0,但K-NN预测出有67(64+3)个0,其中有3个实际上是1。 同时K-NN预测出有33(4+29)个1,其中4个实际上是0。 数据下载链接:https://pan.baIDu.com/s/1cPBt2DAF2NraOMhbk5-_pQ 提取码:vl2g 总结 以上是内存溢出为你收集整理的100天搞定机器学习|Day11 实现KNN全部内容,希望文章能够帮你解决100天搞定机器学习|Day11 实现KNN所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)