- 谈谈评价指标中的宏平均和微平均
- 分类器的性能表现评价(混淆矩阵,准确率,召回率,F1,mAP、ROC曲线)
- python + sklearn ︱分类效果评估——acc、recall、F1、ROC、回归、距离
- 准确率(Accuracy), 精确率(Precision), 召回率(Recall)和F1-Measure
对于二分类问题,可将样例根据其真实类别和分类器预测类别划分为:
0 | 1 | 2 | 真实类别 | 预测类别 |
---|---|---|---|---|
真正例 | True Positive | TP | 正例 | 正例 |
假正例 | False Positive | FP | 负例 | 正例 |
假负例 | False Negative | FN | 正例 | 负例 |
真负例 | True Negative | TN | 负例 | 负例 |
然后可以构建混淆矩阵(Confusion Matrix)如下表所示:
- | 预测 正例 | 预测 负例 |
---|---|---|
真实 正例 | TP | FN |
真实 负例 | FP | TN |
精确度
查全率/召回率 R
- 第j个类别的查全率表示在本类样本中,被正确分类的样本所占的比例,它表示这个类别的分类精度
查准率/准确率 P
- 第j个类别的查准率表示被分类为该类的样本中,真正属于该类的样本所占的比例,它表示这个类别的分类纯度
F1 标准
- F1 值比较合理地评价分类器对每一类样本的分类性能。
宏平均 Macro-averaging
- 先对每一个类统计指标值,然后在对所有类求算术平均值
微平均 Micro-averaging
- 对数据集中的每一个实例不分类别进行统计建立全局混淆矩阵,然后计算相应指标