F1 - ScorePrecisionRecall The Single number evaluation metric(单一评估标准)

2019-05-29 00:15:18 浏览数 (1)

以下指标可以作为衡量分类问题的准确度的标准

Precision

Precision(%)=True positivenumber of predicted positive∗100=True positiveTrue positive False Positive∗100frac{True positive}{number of predicted positive}*100=frac{True positive}{True positive False Positive}*100number of predicted positiveTrue positive​∗100=True positive False PositiveTrue positive​∗100

Recall

Recall(%)=True positivenumber of actually positive∗100=True positiveTrue positive False Negative∗100frac{True positive}{number of actually positive}*100=frac{True positive}{True positive False Negative}*100number of actually positiveTrue positive​∗100=True positive False NegativeTrue positive​∗100

说明

当你有多个Classifiers时,每一个Classifier的Precision和Recall可能都不一样,而且Precision和Recall之间是存在取舍关系的。因此以Precision和Recall作为衡量指标是不太可行的,你无法一眼看出哪个Classifier表现得更好。

直观而言,你会想到以(Precision Recall)/2(Precision Recall)/2(Precision Recall)/2作为一个单一的度量指标,但直接求平均数并不太科学,我们有更好的求平均的方法F1 Score,称作调和平均(Harmonic)。

F1 Score

F1Score=21P 1RF_1Score=frac{2}{frac{1}{P} frac{1}{R}}F1​Score=P1​ R1​2​

你可以简单理解F1 Score为P和R的“平均”。

百度百科里有全面的解释:

使用Dev Set和单一的评估标准能够加速你学习的迭代过程。

0 人点赞