精确率、召回率、F1 分数和支持度#

sklearn.metrics.precision_recall_fscore_support(y_true, y_pred, *, beta=1.0, labels=None, pos_label=1, average=None, warn_for=('precision', 'recall', 'f-score'), sample_weight=None, zero_division='warn')[source]#

计算每个类别的精确率、召回率、F1 分数和支持度。

精确率是比率 tp / (tp + fp),其中 tp 是真阳性数,fp 是假阳性数。直观地说,精确率是分类器不将负样本标记为正样本的能力。

召回率是比率 tp / (tp + fn),其中 tp 是真阳性数,fn 是假阴性数。直观地说,召回率是分类器找到所有正样本的能力。

F-beta 分数可以解释为精确率和召回率的加权调和平均数,其中 F-beta 分数的最佳值为 1,最差值为 0。

F-beta 分数将召回率的权重设置为精确率的 beta 倍。 beta == 1.0 表示召回率和精确率同等重要。

支持度是 y_true 中每个类别的出现次数。

对于超过术语 binary 的支持度,是通过将 多分类多标签 数据视为每个标签一个二元问题的集合来实现的。对于 二元 情形,设置 average='binary' 将返回 pos_label 的指标。如果 average 不是 'binary',则忽略 pos_label 并计算两个类别的指标,然后取平均值或返回两者(当 average=None 时)。类似地,对于 多分类多标签 目标,所有 labels 的指标将根据 average 参数返回平均值或两者都返回。使用 labels 指定要计算指标的标签集。

用户指南 中了解更多信息。

参数:
y_true一维数组、标签指示符数组或稀疏矩阵

真实目标值。

y_pred一维数组、标签指示符数组或稀疏矩阵

分类器返回的估计目标值。

beta浮点数,默认值=1.0

F-分数中召回率与精确率的强度。

labels类数组,默认值=None

average != 'binary' 时要包含的标签集,以及当 average is None 时的顺序。数据中存在的标签可以被排除,例如在多分类中排除“负类”。数据中不存在的标签可以包含在内,并将被分配 0 个样本。对于多标签目标,标签是列索引。默认情况下,使用 y_truey_pred 中所有标签的排序顺序。

0.17 版中的更改: 参数 labels 对多分类问题的改进。

pos_label整数、浮点数、布尔值或字符串,默认值=1

如果 average='binary' 且数据是二元的,则要报告的类别;否则忽略此参数。对于多分类或多标签目标,设置 labels=[pos_label]average != 'binary' 以仅报告一个标签的指标。

average{'micro','macro','samples','weighted','binary'} 或 None,默认值='binary'

此参数对于多分类/多标签目标是必需的。如果为 None,则返回每个类别的指标。否则,这将确定对数据执行的平均类型。

'binary':

仅报告 pos_label 指定的类别的结果。仅当目标(y_{true,pred})为二元时才适用。

'micro':

通过计算总真阳性、假阴性和假阳性来全局计算指标。

'macro':

计算每个标签的指标,并找到它们的未加权平均值。这不会考虑标签不平衡。

'weighted':

计算每个标签的指标,并找到它们由支持度(每个标签的真实实例数)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F-分数不在精确率和召回率之间。

'samples':

计算每个实例的指标,并找到它们的平均值(仅对于多标签分类有意义,在这种情况下与 accuracy_score 不同)。

warn_for列表、元组或集合,用于内部使用

这决定了在使用此函数仅返回其一个指标时将发出哪些警告。

sample_weight形状为 (n_samples,) 的类数组,默认值=None

样本权重。

zero_division{'warn',0.0,1.0,np.nan},默认值='warn'

设置出现零除法时要返回的值

  • 召回率:当没有正标签时

  • 精确率:当没有正预测时

  • F-分数:两者都有

备注

  • 如果设置为“warn”,则其行为类似于 0,但也会发出警告。

  • 如果设置为 np.nan,则此类值将从平均值中排除。

1.3 版中新增: 添加了 np.nan 选项。

返回值:
precision浮点数(如果 average 不为 None)或浮点数数组,形状 = [n_unique_labels]

精确率分数。

recall浮点数(如果 average 不为 None)或浮点数数组,形状 = [n_unique_labels]

召回率分数。

fbeta_score浮点数(如果 average 不为 None)或浮点数数组,形状 = [n_unique_labels]

F-beta 分数。

supportNone(如果 average 不为 None)或整数数组,形状 = [n_unique_labels]

y_true 中每个标签的出现次数。

备注

true positive + false positive == 0 时,精确率未定义。当 true positive + false negative == 0 时,召回率未定义。当 true positive + false negative + false positive == 0 时,F1 值未定义。在这种情况下,默认情况下度量值将设置为 0,并且会引发 UndefinedMetricWarning 警告。可以使用 zero_division 参数修改此行为。

参考文献

示例

>>> import numpy as np
>>> from sklearn.metrics import precision_recall_fscore_support
>>> y_true = np.array(['cat', 'dog', 'pig', 'cat', 'dog', 'pig'])
>>> y_pred = np.array(['cat', 'pig', 'dog', 'cat', 'cat', 'dog'])
>>> precision_recall_fscore_support(y_true, y_pred, average='macro')
(0.22..., 0.33..., 0.26..., None)
>>> precision_recall_fscore_support(y_true, y_pred, average='micro')
(0.33..., 0.33..., 0.33..., None)
>>> precision_recall_fscore_support(y_true, y_pred, average='weighted')
(0.22..., 0.33..., 0.26..., None)

可以计算每个标签的精确率、召回率、F1 值和支持度,而不是计算平均值。

>>> precision_recall_fscore_support(y_true, y_pred, average=None,
... labels=['pig', 'dog', 'cat'])
(array([0.        , 0.        , 0.66...]),
 array([0., 0., 1.]), array([0. , 0. , 0.8]),
 array([2, 2, 2]))