precision_recall_fscore_support#
- sklearn.metrics.precision_recall_fscore_support(y_true, y_pred, *, beta=1.0, labels=None, pos_label=1, average=None, warn_for=('precision', 'recall', 'f-score'), sample_weight=None, zero_division='warn')[source]#
计算每个类别的精确率、召回率、F-measure 和支持度。
精确率是
tp / (tp + fp)
的比率,其中tp
是真阳性样本的数量,fp
是假阳性样本的数量。直观地说,精确率是分类器不将负样本标记为正样本的能力。召回率是
tp / (tp + fn)
的比率,其中tp
是真阳性样本的数量,fn
是假阴性样本的数量。直观地说,召回率是分类器找到所有正样本的能力。F-beta 分数可以解释为精确率和召回率的加权调和平均值,其中 F-beta 分数的最佳值为 1,最差值为 0。
F-beta 分数通过因子
beta
将召回率的权重设得高于精确率。当beta == 1.0
时,表示召回率和精确率同等重要。支持度是
y_true
中每个类别的出现次数。对 term:
binary
目标以外的支持度,通过将 多类别 和 多标签 数据视为一系列二元问题(每个标签一个)来实现。对于 二元 情况,设置average='binary'
将返回pos_label
的度量指标。如果average
不是'binary'
,则pos_label
将被忽略,并计算两个类别的度量指标,然后进行平均或同时返回(当average=None
时)。类似地,对于 多类别 和 多标签 目标,所有labels
的度量指标将根据average
参数返回或平均。使用labels
指定要计算度量指标的标签集合。在 用户指南 中阅读更多内容。
- 参数:
- y_true1d 类似数组,或标签指示器数组 / 稀疏矩阵
真实(正确)的目标值。
- y_pred1d 类似数组,或标签指示器数组 / 稀疏矩阵
分类器返回的估计目标。
- beta浮点数, 默认=1.0
召回率相对于精确率在 F-score 中的重要程度。
- labels类似数组, 默认=None
当
average != 'binary'
时要包含的标签集合,如果average is None
,则为它们的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类别”。数据中不存在的标签可以被包含,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,y_true
和y_pred
中的所有标签都按排序顺序使用。0.17 版本中已更改: 参数
labels
在多类别问题中得到改进。- pos_label整型、浮点型、布尔型或字符串, 默认=1
如果
average='binary'
且数据是二元的,则报告该类别;否则此参数将被忽略。对于多类别或多标签目标,设置labels=[pos_label]
且average != 'binary'
即可仅报告一个标签的度量指标。- average{'micro', 'macro', 'samples', 'weighted', 'binary'} 或 None, 默认='binary'
对于多类别/多标签目标,此参数是必需的。如果为
None
,则返回每个类别的度量指标。否则,这决定了对数据执行的平均类型。'binary'
:仅报告由
pos_label
指定的类别的结果。这仅适用于目标 (y_{true,pred}
) 为二元的情况。'micro'
:通过计算总的真阳性、假阴性和假阳性来全局计算度量指标。
'macro'
:计算每个标签的度量指标,并找出它们的未加权平均值。这不考虑标签不平衡。
'weighted'
:计算每个标签的度量指标,并找出按支持度(每个标签的真实实例数量)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F-score 不在精确率和召回率之间。
'samples'
:计算每个实例的度量指标,并找出它们的平均值(仅对多标签分类有意义,这与
accuracy_score
不同)。
- warn_for列表、元组或集合,供内部使用
在仅返回此函数的一个度量指标时,这将决定会发出哪些警告。
- sample_weight形状为 (n_samples,) 的类似数组, 默认=None
样本权重。
- zero_division{"warn", 0.0, 1.0, np.nan}, 默认="warn"
设置当出现零除时返回的值
召回率: 当没有正标签时
精确率: 当没有正预测时
F-score: 两者都有
注释
如果设置为“warn”,则其行为类似于 0,但也会发出警告。
如果设置为
np.nan
,则此类值将从平均值中排除。
1.3 版本中新增: 增加了
np.nan
选项。
- 返回:
- precision浮点数(如果 average 不是 None)或浮点数数组, 形状 = [n_unique_labels]
精确率得分。
- recall浮点数(如果 average 不是 None)或浮点数数组, 形状 = [n_unique_labels]
召回率得分。
- fbeta_score浮点数(如果 average 不是 None)或浮点数数组, 形状 = [n_unique_labels]
F-beta 分数。
- supportNone(如果 average 不是 None)或整型数组, 形状 = [n_unique_labels]
y_true
中每个标签的出现次数。
注释
当
true positive + false positive == 0
时,精确率未定义。当true positive + false negative == 0
时,召回率未定义。当true positive + false negative + false positive == 0
时,F-score 未定义。在这种情况下,默认情况下指标将设置为 0,并会引发UndefinedMetricWarning
。此行为可以通过zero_division
进行修改。参考文献
[1][2]示例
>>> import numpy as np >>> from sklearn.metrics import precision_recall_fscore_support >>> y_true = np.array(['cat', 'dog', 'pig', 'cat', 'dog', 'pig']) >>> y_pred = np.array(['cat', 'pig', 'dog', 'cat', 'cat', 'dog']) >>> precision_recall_fscore_support(y_true, y_pred, average='macro') (0.222, 0.333, 0.267, None) >>> precision_recall_fscore_support(y_true, y_pred, average='micro') (0.33, 0.33, 0.33, None) >>> precision_recall_fscore_support(y_true, y_pred, average='weighted') (0.222, 0.333, 0.267, None)
可以计算每个标签的精确率、召回率、F1-score 和支持度,而不是取平均值
>>> precision_recall_fscore_support(y_true, y_pred, average=None, ... labels=['pig', 'dog', 'cat']) (array([0. , 0. , 0.66]), array([0., 0., 1.]), array([0. , 0. , 0.8]), array([2, 2, 2]))