f1_score#

sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#

计算 F1 分数,也称为平衡 F 分数或 F-measure。

F1 分数可以解释为精确率(precision)和召回率(recall)的调和平均值,其中 F1 分数的最佳值为 1,最差值为 0。精确率和召回率对 F1 分数的相对贡献是相等的。F1 分数的公式为

\[\text{F1} = \frac{2 * \text{TP}}{2 * \text{TP} + \text{FP} + \text{FN}}\]

其中 \(\text{TP}\) 是真阳性数量,\(\text{FN}\) 是假阴性数量,\(\text{FP}\) 是假阳性数量。当没有真阳性、假阴性或假阳性时,F1 默认计算为 0.0。

除了二元目标之外的支持是通过将多类别多标签数据视为二元问题的集合来实现的,每个标签一个问题。对于二元情况,设置 average='binary' 将返回 pos_label 的 F1 分数。如果 average 不是 'binary',则 pos_label 将被忽略,并且将计算两个类别的 F1 分数,然后进行平均或同时返回(当 average=None 时)。类似地,对于多类别多标签目标,所有 labels 的 F1 分数将根据 average 参数返回或取平均值。使用 labels 指定要计算 F1 分数的标签集。

用户指南中阅读更多内容。

参数:
y_true1D 数组或类似对象,或标签指示器数组/稀疏矩阵

真实(正确)的目标值。

y_pred1D 数组或类似对象,或标签指示器数组/稀疏矩阵

分类器返回的估计目标。

labels数组或类似对象,默认=None

average != 'binary' 时要包含的标签集,如果 average is None,则为它们的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类别”。数据中不存在的标签可以被包含,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,y_truey_pred 中的所有标签都按排序顺序使用。

0.17 版中的变化: 针对多类别问题改进了参数 labels

pos_labelint, float, bool 或 str,默认=1

如果 average='binary' 且数据为二元时报告的类别,否则此参数将被忽略。对于多类别或多标签目标,设置 labels=[pos_label]average != 'binary' 以仅报告一个标签的指标。

average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} 或 None,默认=’binary’

此参数对于多类别/多标签目标是必需的。如果为 None,则返回每个类别的指标。否则,这将确定对数据执行的平均类型

'binary':

仅报告由 pos_label 指定的类别结果。这仅适用于目标 (y_{true,pred}) 是二元的情况。

'micro':

通过计算总真阳性、假阴性和假阳性来全局计算指标。

'macro':

计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡。

'weighted':

计算每个标签的指标,并根据支持度(每个标签的真实实例数)加权找到它们的平均值。这会改变‘macro’以解决标签不平衡问题;它可能导致 F 分数不在精确率和召回率之间。

'samples':

计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,这与 accuracy_score 不同)。

sample_weight形状为 (n_samples,) 的数组或类似对象,默认=None

样本权重。

zero_division{“warn”, 0.0, 1.0, np.nan},默认=”warn”

设置当出现零除(即所有预测和标签都为负值)时返回的值。

注意: - 如果设置为“warn”,则其作用类似于 0,但也会引发警告。 - 如果设置为 np.nan,此类值将被排除在平均值之外。

1.3 版中新增: 添加了 np.nan 选项。

返回:
f1_score浮点数或浮点数数组,形状 = [n_unique_labels]

二元分类中正类别的 F1 分数,或多类别任务中每个类别 F1 分数的加权平均值。

另请参阅

fbeta_score

计算 F-beta 分数。

precision_recall_fscore_support

计算精确率、召回率、F 分数和支持度。

jaccard_score

计算 Jaccard 相似系数分数。

multilabel_confusion_matrix

计算每个类别或样本的混淆矩阵。

注意

真阳性 + 假阳性 + 假阴性 == 0(即某个类别完全不存在于 y_truey_pred 中)时,F 分数是未定义的。在这种情况下,F 分数默认设置为 0.0,并会引发 UndefinedMetricWarning 警告。此行为可以通过设置 zero_division 参数来修改。

参考文献

示例

>>> import numpy as np
>>> from sklearn.metrics import f1_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> f1_score(y_true, y_pred, average='macro')
0.267
>>> f1_score(y_true, y_pred, average='micro')
0.33
>>> f1_score(y_true, y_pred, average='weighted')
0.267
>>> f1_score(y_true, y_pred, average=None)
array([0.8, 0. , 0. ])
>>> # binary classification
>>> y_true_empty = [0, 0, 0, 0, 0, 0]
>>> y_pred_empty = [0, 0, 0, 0, 0, 0]
>>> f1_score(y_true_empty, y_pred_empty)
0.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0)
1.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan)
nan...
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> f1_score(y_true, y_pred, average=None)
array([0.66666667, 1.        , 0.66666667])