- P(Positive)、N(Negative)针对的是预测值的结果。
P表示对样本的预测结果为正例,
N表示对样本的预测结果为反例。 - T(True)、F(False)针对的是预测值的结果是否预测对了。
TP表示对该样本预测结果为正例,同时预测对了,真实标签和预测标签都为正例,
FP表示对该样本预测结果为正例,但是预测错了,真实标签为反例,预测标签为正例,
TN表示对该样本预测结果为反例,同时预测对了,真是标签和预测标签都为反例,
FN表示对该样本预测结果为反例,但是预测错了,真实标签为正例,预测标签为反例。
- 准确率指的是对于所有预测结果为正例的样本中,真实标签真的是正样本的个数在其中的比例
- 召回率指的是对于所有真实标签为正例的样本中,预测结果真的是正样本的个数在其中的比例
P = T P T P + F P P=\frac{TP}{TP+FP} P=TP+FPTP
2、召回率(Recall)R = T P T P + F N R=\frac{TP}{TP+FN} R=TP+FNTP
3、F1-scoreF 1 = 2 ∗ P ∗ R P + R F_1=\frac{2*P*R}{P+R} F1=P+R2∗P∗R
4、P-R曲线- 横轴是召回率,纵轴是精准率。二者的值矛盾且统一,通常精准率高时,召回率往往偏低,召回率高时,精准率往往偏低。
- 图片来源:机器学习,周志华
- 衡量模型A、B、C性能
1、A曲线完全包住C曲线、B曲线完全包住C曲线。说明A、B两个模型无论在精准率还是召回率都优于C模型,所以A、B两个模型优于C模型。
2、A、B两条曲线有交叉部分
1)计算A、B曲线与坐标轴之间围成的面积,但这个值不太好估算。
2)平衡点(Break-Even Point),精准率等于召回率时的取值。由此可得A模型优于B模型。
3)优于平衡点衡量标准过于简单,更常使用的就是F1-score。 - 精准率、召回率关系
在某些实际场景中,对精准率和召回率的重视程度不相同。
比如疾病诊断,大多数情况下真实标签中没病的很多,有病的很少。如果判断时把所有病例都判断为无病,精准率同样会很高,但召回率极低。这个时候需要重点关注召回率这个指标。
- P-R曲线横纵坐标分别为召回率和精准率,ROC曲线横纵坐标则不同,分别为假正例率和真正例率
- 真正例率指的是对于所有真实标签为正例的样本中,预测结果真的是正样本的个数在其中的比例
真正例率就是准确率 - 假正例率指的是对于所有真实标签为负例的样本中,预测结果真的是负样本的个数在其中的比例
- P P P为真实标签中正例的数量。 P = T P + F N P=TP+FN P=TP+FN。 T P R = T P P = T P T P + F N TPR=\frac{TP}{P}=\frac{TP}{TP+FN} TPR=PTP=TP+FNTP
- N N N为真实标签中负例的数量。 N = F P + T N N=FP+TN N=FP+TN。 F P R = F P N = F P F P + T N FPR=\frac{FP}{N}=\frac{FP}{FP+TN} FPR=NFP=FP+TNFP
- 横轴是假正例率,纵轴是真正例率。
- 图片来源:https://baike.sogou.com/v472808.htm;jsessionid=2C527CDD2A1BFE2BAB595A696A676FB9
- AUC曲线为ROC曲线下的面积大小,该值能够量化地反映基于ROC曲线衡量出的模型性能。
面积越大,说明模型越能把真正的正样本排到前面,性能就越好。
[1] 《机器学习》周志华
[2] 《百面机器学习》诸葛越 、葫芦娃
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)