precision_recall_fscore_support#

sklearn.metrics.precision_recall_fscore_support(y_true, y_pred, *, beta=1.0, labels=None, pos_label=1, average=None, warn_for=('precision', 'recall', 'f-score'), sample_weight=None, zero_division='warn')[source]#

计算每个类别的精确率、召回率、F-measure 和支持度。

精确率是 tp / (tp + fp) 的比率,其中 tp 是真阳性样本的数量,fp 是假阳性样本的数量。直观地说,精确率是分类器不将负样本标记为正样本的能力。

召回率是 tp / (tp + fn) 的比率,其中 tp 是真阳性样本的数量,fn 是假阴性样本的数量。直观地说,召回率是分类器找到所有正样本的能力。

F-beta 分数可以解释为精确率和召回率的加权调和平均值,其中 F-beta 分数的最佳值为 1,最差值为 0。

F-beta 分数通过因子 beta 将召回率的权重设得高于精确率。当 beta == 1.0 时,表示召回率和精确率同等重要。

支持度是 y_true 中每个类别的出现次数。

对 term:binary 目标以外的支持度,通过将 多类别多标签 数据视为一系列二元问题(每个标签一个)来实现。对于 二元 情况,设置 average='binary' 将返回 pos_label 的度量指标。如果 average 不是 'binary',则 pos_label 将被忽略,并计算两个类别的度量指标,然后进行平均或同时返回(当 average=None 时)。类似地,对于 多类别多标签 目标,所有 labels 的度量指标将根据 average 参数返回或平均。使用 labels 指定要计算度量指标的标签集合。

用户指南 中阅读更多内容。

参数:
y_true1d 类似数组,或标签指示器数组 / 稀疏矩阵

真实(正确)的目标值。

y_pred1d 类似数组,或标签指示器数组 / 稀疏矩阵

分类器返回的估计目标。

beta浮点数, 默认=1.0

召回率相对于精确率在 F-score 中的重要程度。

labels类似数组, 默认=None

average != 'binary' 时要包含的标签集合,如果 average is None,则为它们的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类别”。数据中不存在的标签可以被包含,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,y_truey_pred 中的所有标签都按排序顺序使用。

0.17 版本中已更改: 参数 labels 在多类别问题中得到改进。

pos_label整型、浮点型、布尔型或字符串, 默认=1

如果 average='binary' 且数据是二元的,则报告该类别;否则此参数将被忽略。对于多类别或多标签目标,设置 labels=[pos_label]average != 'binary' 即可仅报告一个标签的度量指标。

average{'micro', 'macro', 'samples', 'weighted', 'binary'} 或 None, 默认='binary'

对于多类别/多标签目标,此参数是必需的。如果为 None,则返回每个类别的度量指标。否则,这决定了对数据执行的平均类型。

'binary':

仅报告由 pos_label 指定的类别的结果。这仅适用于目标 (y_{true,pred}) 为二元的情况。

'micro':

通过计算总的真阳性、假阴性和假阳性来全局计算度量指标。

'macro':

计算每个标签的度量指标,并找出它们的未加权平均值。这不考虑标签不平衡。

'weighted':

计算每个标签的度量指标,并找出按支持度(每个标签的真实实例数量)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F-score 不在精确率和召回率之间。

'samples':

计算每个实例的度量指标,并找出它们的平均值(仅对多标签分类有意义,这与 accuracy_score 不同)。

warn_for列表、元组或集合,供内部使用

在仅返回此函数的一个度量指标时,这将决定会发出哪些警告。

sample_weight形状为 (n_samples,) 的类似数组, 默认=None

样本权重。

zero_division{"warn", 0.0, 1.0, np.nan}, 默认="warn"

设置当出现零除时返回的值

  • 召回率: 当没有正标签时

  • 精确率: 当没有正预测时

  • F-score: 两者都有

注释

  • 如果设置为“warn”,则其行为类似于 0,但也会发出警告。

  • 如果设置为 np.nan,则此类值将从平均值中排除。

1.3 版本中新增: 增加了 np.nan 选项。

返回:
precision浮点数(如果 average 不是 None)或浮点数数组, 形状 = [n_unique_labels]

精确率得分。

recall浮点数(如果 average 不是 None)或浮点数数组, 形状 = [n_unique_labels]

召回率得分。

fbeta_score浮点数(如果 average 不是 None)或浮点数数组, 形状 = [n_unique_labels]

F-beta 分数。

supportNone(如果 average 不是 None)或整型数组, 形状 = [n_unique_labels]

y_true 中每个标签的出现次数。

注释

true positive + false positive == 0 时,精确率未定义。当 true positive + false negative == 0 时,召回率未定义。当 true positive + false negative + false positive == 0 时,F-score 未定义。在这种情况下,默认情况下指标将设置为 0,并会引发 UndefinedMetricWarning。此行为可以通过 zero_division 进行修改。

参考文献

示例

>>> import numpy as np
>>> from sklearn.metrics import precision_recall_fscore_support
>>> y_true = np.array(['cat', 'dog', 'pig', 'cat', 'dog', 'pig'])
>>> y_pred = np.array(['cat', 'pig', 'dog', 'cat', 'cat', 'dog'])
>>> precision_recall_fscore_support(y_true, y_pred, average='macro')
(0.222, 0.333, 0.267, None)
>>> precision_recall_fscore_support(y_true, y_pred, average='micro')
(0.33, 0.33, 0.33, None)
>>> precision_recall_fscore_support(y_true, y_pred, average='weighted')
(0.222, 0.333, 0.267, None)

可以计算每个标签的精确率、召回率、F1-score 和支持度,而不是取平均值

>>> precision_recall_fscore_support(y_true, y_pred, average=None,
... labels=['pig', 'dog', 'cat'])
(array([0.        , 0.        , 0.66]),
 array([0., 0., 1.]), array([0. , 0. , 0.8]),
 array([2, 2, 2]))