f1_score#
- sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#
计算 F1 分数,也称为平衡 F 分数或 F-measure。
F1 分数可以被解释为精确率(precision)和召回率(recall)的调和平均值,F1 分数的最佳值为 1,最差值为 0。精确率和召回率对 F1 分数的相对贡献是相等的。F1 分数的公式为
\[\text{F1} = \frac{2 * \text{TP}}{2 * \text{TP} + \text{FP} + \text{FN}}\]其中 \(\text{TP}\) 是真正例(true positives)的数量,\(\text{FN}\) 是假反例(false negatives)的数量,\(\text{FP}\) 是假正例(false positives)的数量。当没有真正例、假反例或假正例时,F1 默认计算为 0.0。
对 二元 目标之外的支持是通过将 多类 和 多标签 数据视为二元问题的集合来实现的,每个标签一个问题。对于 二元 情况,设置
average='binary'将返回pos_label的 F1 分数。如果average不是'binary',则忽略pos_label,并计算两个类别的 F1 分数,然后进行平均或返回两者(当average=None时)。同样,对于 多类 和 多标签 目标,所有labels的 F1 分数要么返回,要么根据average参数进行平均。使用labels指定要计算 F1 分数的标签集。在用户指南中阅读更多内容。
- 参数:
- y_true1d array-like, or label indicator array / sparse matrix
真实(正确)目标值。稀疏矩阵仅在目标为 多标签 类型时受支持。
- y_pred1d array-like, or label indicator array / sparse matrix
分类器返回的估计目标。稀疏矩阵仅在目标为 多标签 类型时受支持。
- labels类似数组对象, default=None
当
average != 'binary'时要包括的标签集,如果average is None,则为它们的顺序。可以排除数据中存在的标签,例如在多类分类中排除“负类”。可以包括数据中不存在的标签,这些标签将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,按排序顺序使用y_true和y_pred中的所有标签。版本 0.17 中的变化: 针对多类问题改进了参数
labels。- pos_labelint, float, bool or str, default=1
如果
average='binary'且数据为二元,则报告的类别,否则此参数将被忽略。对于多类或多标签目标,设置labels=[pos_label]和average != 'binary'以仅报告一个标签的指标。- average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} or None, default=’binary’
此参数对于多类/多标签目标是必需的。如果为
None,则返回每个类别的指标。否则,这决定了对数据执行的平均类型'binary':仅报告由
pos_label指定的类别的结果。这仅适用于目标 (y_{true,pred}) 是二元的情况。'micro':通过计算总的真正例、假负例和假正例来全局计算指标。
'macro':计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡。
'weighted':计算每个标签的指标,并找到按支持度(每个标签的真实实例数)加权的平均值。这会修改“宏平均”以考虑标签不平衡;它可能导致 F 分数不在精确率和召回率之间。
'samples':计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,这与
accuracy_score不同)。
- sample_weightshape 为 (n_samples,) 的 array-like, default=None
样本权重。
- zero_division{“warn”, 0.0, 1.0, np.nan}, default=”warn”
设置当发生零除法时返回的值,即当所有预测和标签都为负时。
注意:- 如果设置为“warn”,则其行为类似于 0,但会引发警告。- 如果设置为
np.nan,则此类值将被排除在平均值之外。版本 1.3 中的新增: 添加了
np.nan选项。
- 返回:
- f1_scorefloat or array of float, shape = [n_unique_labels]
二元分类中正类的 F1 分数或多类任务中每个类别的 F1 分数的加权平均值。
另请参阅
fbeta_score计算 F-beta 分数。
precision_recall_fscore_support计算精确率、召回率、F-score 和支持度。
jaccard_score计算 Jaccard 相似系数分数。
multilabel_confusion_matrix计算每个类别或样本的混淆矩阵。
注意事项
当
true positive + false positive + false negative == 0时(即某个类别在y_true和y_pred中都完全不存在),f-score 未定义。在这种情况下,f-score 默认设置为 0.0,并引发UndefinedMetricWarning。可以通过设置zero_division参数来修改此行为。References
[1]示例
>>> import numpy as np >>> from sklearn.metrics import f1_score >>> y_true = [0, 1, 2, 0, 1, 2] >>> y_pred = [0, 2, 1, 0, 0, 1] >>> f1_score(y_true, y_pred, average='macro') 0.267 >>> f1_score(y_true, y_pred, average='micro') 0.33 >>> f1_score(y_true, y_pred, average='weighted') 0.267 >>> f1_score(y_true, y_pred, average=None) array([0.8, 0. , 0. ])
>>> # binary classification >>> y_true_empty = [0, 0, 0, 0, 0, 0] >>> y_pred_empty = [0, 0, 0, 0, 0, 0] >>> f1_score(y_true_empty, y_pred_empty) 0.0... >>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0) 1.0... >>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan) nan...
>>> # multilabel classification >>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]] >>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]] >>> f1_score(y_true, y_pred, average=None) array([0.66666667, 1. , 0.66666667])