f1_score #

sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#

计算F1分数,也称为平衡F分数或F度量。

F1分数可以解释为精确率和召回率的调和平均数,其中F1分数的最佳值为1,最差值为0。精确率和召回率对F1分数的相对贡献相等。F1分数的公式为

\[\text{F1} = \frac{2 * \text{TP}}{2 * \text{TP} + \text{FP} + \text{FN}}\]

其中,\(\text{TP}\) 表示真阳性数,\(\text{FN}\) 表示假阴性数,\(\text{FP}\) 表示假阳性数。如果真阳性、假阴性和假阳性数量均为零,则 F1 值默认为 0.0。

通过将多类别多标签数据视为每个标签一个二元问题的集合,从而实现了对二元目标的支持。对于二元情况,设置average='binary'将返回pos_label的F1分数。如果average不是'binary',则忽略pos_label,计算两个类别的F1分数,然后取平均值或返回两个分数(当average=None时)。类似地,对于多类别多标签目标,根据average参数,所有labels的F1分数将被返回或取平均值。使用labels指定要计算F1分数的标签集。

用户指南中了解更多信息。

参数:
y_true一维数组或标签指示符数组/稀疏矩阵

真实目标值。

y_pred一维数组或标签指示符数组/稀疏矩阵

分类器返回的估计目标值。

labels类数组,默认值为 None

average != 'binary'时要包含的标签集,以及当average is None时的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类”。数据中不存在的标签可以包含在内,并将被分配0个样本。对于多标签目标,标签是列索引。默认情况下,y_truey_pred中所有标签都按排序顺序使用。

0.17 版本中的更改: 针对多类别问题改进了参数labels

pos_label整数、浮点数、布尔值或字符串,默认为 1

如果average='binary'且数据为二元数据,则报告的类别;否则忽略此参数。对于多类别或多标签目标,设置labels=[pos_label]average != 'binary'仅报告一个标签的指标。

average{'micro','macro','samples','weighted','binary'} 或 None,默认为 'binary'

此参数对于多类别/多标签目标是必需的。如果为None,则返回每个类别的指标。否则,这决定了对数据执行的平均类型。

'binary':

仅报告pos_label指定的类别的结果。仅当目标(y_{true,pred})为二元时适用。

'micro':

通过计算总的真阳性、假阴性和假阳性来全局计算指标。

'macro':

计算每个标签的指标,并找到它们的未加权平均值。这不会考虑标签不平衡。

'weighted':

计算每个标签的指标,并找到它们根据支持度(每个标签的真实实例数)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F 分数不在精度和召回率之间。

'samples':

计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,在这种情况下与accuracy_score不同)。

sample_weight形状为 (n_samples,) 的类数组,默认为 None

样本权重。

zero_division{'warn',0.0,1.0,np.nan},默认为 'warn'

设置当出现零除法(即所有预测和标签都为负)时要返回的值。

注释:- 如果设置为“warn”,则其作用类似于 0,但也会引发警告。- 如果设置为np.nan,则此类值将从平均值中排除。

1.3 版本中添加: 添加了np.nan选项。

返回:
f1_score浮点数或浮点数组,形状 = [n_unique_labels]

二元分类中正类的 F1 分数,或多类别任务中每个类的 F1 分数的加权平均值。

另请参见

fbeta_score

计算 F-beta 分数。

precision_recall_fscore_support

计算精度、召回率、F 分数和支持度。

jaccard_score

计算 Jaccard 相似系数分数。

multilabel_confusion_matrix

为每个类别或样本计算混淆矩阵。

注释

true positive + false positive + false negative == 0(即一个类别完全不存在于y_truey_pred中)时,F 分数未定义。在这种情况下,默认情况下,F 分数将设置为 0.0,并且会引发UndefinedMetricWarning。可以通过设置zero_division参数来修改此行为。

参考文献

示例

>>> import numpy as np
>>> from sklearn.metrics import f1_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> f1_score(y_true, y_pred, average='macro')
0.26...
>>> f1_score(y_true, y_pred, average='micro')
0.33...
>>> f1_score(y_true, y_pred, average='weighted')
0.26...
>>> f1_score(y_true, y_pred, average=None)
array([0.8, 0. , 0. ])
>>> # binary classification
>>> y_true_empty = [0, 0, 0, 0, 0, 0]
>>> y_pred_empty = [0, 0, 0, 0, 0, 0]
>>> f1_score(y_true_empty, y_pred_empty)
0.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0)
1.0...
>>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan)
nan...
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> f1_score(y_true, y_pred, average=None)
array([0.66666667, 1.        , 0.66666667])