f1_score #
- sklearn.metrics.f1_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#
- 计算F1分数,也称为平衡F分数或F度量。 - F1分数可以解释为精确率和召回率的调和平均数,其中F1分数的最佳值为1,最差值为0。精确率和召回率对F1分数的相对贡献相等。F1分数的公式为 \[\text{F1} = \frac{2 * \text{TP}}{2 * \text{TP} + \text{FP} + \text{FN}}\]- 其中,\(\text{TP}\) 表示真阳性数,\(\text{FN}\) 表示假阴性数,\(\text{FP}\) 表示假阳性数。如果真阳性、假阴性和假阳性数量均为零,则 F1 值默认为 0.0。 - 通过将多类别和多标签数据视为每个标签一个二元问题的集合,从而实现了对二元目标的支持。对于二元情况,设置 - average='binary'将返回- pos_label的F1分数。如果- average不是- 'binary',则忽略- pos_label,计算两个类别的F1分数,然后取平均值或返回两个分数(当- average=None时)。类似地,对于多类别和多标签目标,根据- average参数,所有- labels的F1分数将被返回或取平均值。使用- labels指定要计算F1分数的标签集。- 在用户指南中了解更多信息。 - 参数:
- y_true一维数组或标签指示符数组/稀疏矩阵
- 真实目标值。 
- y_pred一维数组或标签指示符数组/稀疏矩阵
- 分类器返回的估计目标值。 
- labels类数组,默认值为 None
- 当 - average != 'binary'时要包含的标签集,以及当- average is None时的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类”。数据中不存在的标签可以包含在内,并将被分配0个样本。对于多标签目标,标签是列索引。默认情况下,- y_true和- y_pred中所有标签都按排序顺序使用。- 0.17 版本中的更改: 针对多类别问题改进了参数 - labels。
- pos_label整数、浮点数、布尔值或字符串,默认为 1
- 如果 - average='binary'且数据为二元数据,则报告的类别;否则忽略此参数。对于多类别或多标签目标,设置- labels=[pos_label]和- average != 'binary'仅报告一个标签的指标。
- average{'micro','macro','samples','weighted','binary'} 或 None,默认为 'binary'
- 此参数对于多类别/多标签目标是必需的。如果为 - None,则返回每个类别的指标。否则,这决定了对数据执行的平均类型。- 'binary':
- 仅报告 - pos_label指定的类别的结果。仅当目标(- y_{true,pred})为二元时适用。
- 'micro':
- 通过计算总的真阳性、假阴性和假阳性来全局计算指标。 
- 'macro':
- 计算每个标签的指标,并找到它们的未加权平均值。这不会考虑标签不平衡。 
- 'weighted':
- 计算每个标签的指标,并找到它们根据支持度(每个标签的真实实例数)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F 分数不在精度和召回率之间。 
- 'samples':
- 计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,在这种情况下与 - accuracy_score不同)。
 
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
- 样本权重。 
- zero_division{'warn',0.0,1.0,np.nan},默认为 'warn'
- 设置当出现零除法(即所有预测和标签都为负)时要返回的值。 - 注释:- 如果设置为“warn”,则其作用类似于 0,但也会引发警告。- 如果设置为 - np.nan,则此类值将从平均值中排除。- 1.3 版本中添加: 添加了 - np.nan选项。
 
- 返回:
- f1_score浮点数或浮点数组,形状 = [n_unique_labels]
- 二元分类中正类的 F1 分数,或多类别任务中每个类的 F1 分数的加权平均值。 
 
 - 另请参见 - fbeta_score
- 计算 F-beta 分数。 
- precision_recall_fscore_support
- 计算精度、召回率、F 分数和支持度。 
- jaccard_score
- 计算 Jaccard 相似系数分数。 
- multilabel_confusion_matrix
- 为每个类别或样本计算混淆矩阵。 
 - 注释 - 当 - true positive + false positive + false negative == 0(即一个类别完全不存在于- y_true或- y_pred中)时,F 分数未定义。在这种情况下,默认情况下,F 分数将设置为 0.0,并且会引发- UndefinedMetricWarning。可以通过设置- zero_division参数来修改此行为。- 参考文献 [1]- 示例 - >>> import numpy as np >>> from sklearn.metrics import f1_score >>> y_true = [0, 1, 2, 0, 1, 2] >>> y_pred = [0, 2, 1, 0, 0, 1] >>> f1_score(y_true, y_pred, average='macro') 0.26... >>> f1_score(y_true, y_pred, average='micro') 0.33... >>> f1_score(y_true, y_pred, average='weighted') 0.26... >>> f1_score(y_true, y_pred, average=None) array([0.8, 0. , 0. ]) - >>> # binary classification >>> y_true_empty = [0, 0, 0, 0, 0, 0] >>> y_pred_empty = [0, 0, 0, 0, 0, 0] >>> f1_score(y_true_empty, y_pred_empty) 0.0... >>> f1_score(y_true_empty, y_pred_empty, zero_division=1.0) 1.0... >>> f1_score(y_true_empty, y_pred_empty, zero_division=np.nan) nan... - >>> # multilabel classification >>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]] >>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]] >>> f1_score(y_true, y_pred, average=None) array([0.66666667, 1. , 0.66666667]) 
 
     
 
