- 第三章 模型搭建和评估
- 任务:加载数据并分割测试集和训练集
- 模型评估
- 任务一:交叉验证
- 提示4
- 任务二:混淆矩阵
- 提示5
- 任务三:ROC曲线
- 提示6
【引言】根据之前的模型的建模,我们知道如何运用sklearn这个库来完成建模,以及我们知道了的数据集的划分等等 *** 作。那么一个模型我们怎么知道它好不好用呢?以至于我们能不能放心的使用模型给我的结果呢?那么今天的学习的评估,就会很有帮助。
第三章 模型搭建和评估开始之前,先导入包和数据
import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as plt from IPython.display import Image from sklearn.linear_model import LogisticRegression from sklearn.ensemble import RandomForestClassifier
%matplotlib inline plt.rcParams['font.sans-serif'] = ['SimHei'] # 用来正常显示中文标签 plt.rcParams['axes.unicode_minus'] = False # 用来正常显示负号 plt.rcParams['figure.figsize'] = (10, 6) # 设置输出图片大小任务:加载数据并分割测试集和训练集
from sklearn.model_selection import train_test_split
# 一般先取出X和y后再切割,有些情况会使用到未切割的,这时候X和y就可以用,x是清洗好的数据,y是我们要预测的存活数据'Survived' data = pd.read_csv('clear_data.csv') train = pd.read_csv('train.csv') X = data y = train['Survived']
# 对数据集进行切割 X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, random_state=0)
# 默认参数逻辑回归模型 lr = LogisticRegression() lr.fit(X_train, y_train)模型评估
模型评估是为了知道模型的泛化能力。
交叉验证(cross-validation)是一种评估泛化性能的统计学方法,它比单次划分训练集和测试集的方法更加稳定、全面。
在交叉验证中,数据被多次划分,并且需要训练多个模型。
最常用的交叉验证是 k 折交叉验证(k-fold cross-validation),其中 k 是由用户指定的数字,通常取 5 或 10。
准确率(precision)度量的是被预测为正例的样本中有多少是真正的正例
召回率(recall)度量的是正类样本中有多少被预测为正类
f-分数是准确率与召回率的调和平均
用10折交叉验证来评估之前的逻辑回归模型
计算交叉验证精度的平均值
#提示:交叉验证 Image('Snipaste_2020-01-05_16-37-56.png')提示4
交叉验证在sklearn中的模块为sklearn.model_selection
from sklearn.model_selection import cross_val_score
lr = LogisticRegression(C=100) scores = cross_val_score(lr, X_train, y_train, cv=10)
# k折交叉验证分数 scores
# 平均交叉验证分数 print("Average cross-validation score: {:.3f}".format(scores.mean()))任务二:混淆矩阵
计算二分类问题的混淆矩阵
计算精确率、召回率以及f-分数
#提示:混淆矩阵 Image('Snipaste_2020-01-05_16-38-26.png')
#提示:准确率 (Accuracy),精确度(Precision),Recall,f-分数计算方法 Image('Snipaste_2020-01-05_16-39-27.png')提示5
混淆矩阵的方法在sklearn中的sklearn.metrics模块
混淆矩阵需要输入真实标签和预测标签
精确率、召回率以及f-分数可使用classification_report模块
from sklearn.metrics import confusion_matrix
# 训练模型 lr = LogisticRegression(C=100) lr.fit(X_train, y_train)
# 模型预测结果 pred = lr.predict(X_train)
# 混淆矩阵 confusion_matrix(y_train, pred)
from sklearn.metrics import classification_report
# 精确率、召回率以及f1-score print(classification_report(y_train, pred))任务三:ROC曲线
绘制ROC曲线
提示6ROC曲线在sklearn中的模块为sklearn.metrics
ROC曲线下面所包围的面积越大越好
from sklearn.metrics import roc_curve
fpr, tpr, thresholds = roc_curve(y_test, lr.decision_function(X_test)) plt.plot(fpr, tpr, label="ROC Curve") plt.xlabel("FPR") plt.ylabel("TPR (recall)") # 找到最接近于0的阈值 close_zero = np.argmin(np.abs(thresholds)) plt.plot(fpr[close_zero], tpr[close_zero], 'o', markersize=10, label="threshold zero", fillstyle="none", c='k', mew=2) plt.legend(loc=4)
备注:本次学习资料源自DataWhale
动手学数据分析
航路开辟者:陈安东、金娟娟、杨佳达、老表、李玲、张文涛、高立业
领航员:范淑卷
航海士:武者小路、曾心怡
内容属性:精品入门课系列
开源内容:https://github.com/datawhalechina/hands-on-data-analysis
开源内容:https://gitee.com/datawhalechina/hands-on-data-analysis
B 站视频:https://www.bilibili.com/video/BV1Uv411p77r
内容说明:以项目为主线,通过边学,边做以及边被引导的方式,既掌握知识点又能掌握数据分析的大致思路和流程。
定位人群:懂一些python,希望入门数据分析的学习者。
http://datawhale.club
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)