精确率得分#

sklearn.metrics.precision_score(y_true, y_pred, *, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#

计算精确率。

精确率是比率 tp / (tp + fp),其中 tp 是真正例的数量,fp 是假正例的数量。精确率直观地表示分类器不将负样本标记为正样本的能力。

最佳值为 1,最差值为 0。

对超过术语 binary 的目标的支持是通过将多类多标签数据视为每个标签一个二元问题的集合来实现的。对于二元情况,设置 average='binary' 将返回 pos_label 的精确率。如果 average 不是 'binary',则忽略 pos_label 并计算两个类的精确率,然后取平均值或返回两者(当 average=None 时)。类似地,对于多类多标签目标,所有labels的精确率将根据average参数返回平均值或两者。使用 labels 指定要计算精确率的标签集。

用户指南中阅读更多内容。

参数:
y_true一维类数组,或标签指示符数组/稀疏矩阵

真实(正确)目标值。

y_pred一维类数组,或标签指示符数组/稀疏矩阵

分类器返回的估计目标值。

labels类数组,默认为 None

average != 'binary' 时要包含的标签集,以及当 average is None时的顺序。数据中存在的标签可以被排除,例如在多类分类中排除“负类”。数据中不存在的标签可以包含,并将被分配 0 个样本。对于多标签目标,标签是列索引。默认情况下,y_truey_pred 中的所有标签都按排序顺序使用。

0.17版本中已更改:参数 labels 对多类问题的改进。

pos_label整数、浮点数、布尔值或字符串,默认为 1

如果 average='binary' 且数据是二元的,则报告的类,否则忽略此参数。对于多类或多标签目标,设置 labels=[pos_label]average != 'binary' 以仅报告一个标签的指标。

average{'micro','macro','samples','weighted','binary'} 或 None,默认为 'binary'

此参数对于多类/多标签目标是必需的。如果为 None,则返回每个类的指标。否则,这将确定对数据执行的平均类型。

'binary':

仅报告 pos_label 指定类的结果。仅当目标(y_{true,pred})为二元时适用。

'micro':

通过计算真正例、假反例和假正例的总数来全局计算指标。

'macro':

计算每个标签的指标,并找到它们的未加权平均值。这不会考虑标签不平衡。

'weighted':

计算每个标签的指标,并找到其由支持度(每个标签的真实实例数)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F 分数不在精确率和召回率之间。

'samples':

计算每个实例的指标,并找到它们的平均值(仅对于多标签分类有意义,在这种情况下与accuracy_score不同)。

sample_weight形状为 (n_samples,) 的类数组,默认为 None

样本权重。

zero_division{'warn',0.0,1.0,np.nan},默认为 'warn'

设置当出现零除法时返回的值。

备注

  • 如果设置为“warn”,则其作用类似于 0,但也会引发警告。

  • 如果设置为 np.nan,则此类值将从平均值中排除。

1.3版本中已添加:添加了 np.nan 选项。

返回值:
precision浮点数(如果 average 不为 None)或形状为 (n_unique_labels,) 的浮点数数组

二元分类中正类的精确率,或多类任务中每个类的精确率的加权平均值。

另请参阅

精确率、召回率、F 分数和支持度 (precision_recall_fscore_support)

计算每个类的精确率、召回率、F 值和支持度。

召回率得分 (recall_score)

计算比率 tp / (tp + fn),其中 tp 是真正例的数量,fn 是假反例的数量。

PrecisionRecallDisplay.from_estimator

给定估计器和一些数据,绘制精确率-召回率曲线。

PrecisionRecallDisplay.from_predictions

根据二元分类预测结果绘制精确率-召回率曲线。

多标签混淆矩阵 (multilabel_confusion_matrix)

为每个类别或样本计算混淆矩阵。

备注

真阳性 + 假阳性 == 0 时,精确率返回 0 并引发 UndefinedMetricWarning 警告。此行为可以通过 zero_division 参数修改。

示例

>>> import numpy as np
>>> from sklearn.metrics import precision_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> precision_score(y_true, y_pred, average='macro')
0.22...
>>> precision_score(y_true, y_pred, average='micro')
0.33...
>>> precision_score(y_true, y_pred, average='weighted')
0.22...
>>> precision_score(y_true, y_pred, average=None)
array([0.66..., 0.        , 0.        ])
>>> y_pred = [0, 0, 0, 0, 0, 0]
>>> precision_score(y_true, y_pred, average=None)
array([0.33..., 0.        , 0.        ])
>>> precision_score(y_true, y_pred, average=None, zero_division=1)
array([0.33..., 1.        , 1.        ])
>>> precision_score(y_true, y_pred, average=None, zero_division=np.nan)
array([0.33...,        nan,        nan])
>>> # multilabel classification
>>> y_true = [[0, 0, 0], [1, 1, 1], [0, 1, 1]]
>>> y_pred = [[0, 0, 0], [1, 1, 1], [1, 1, 0]]
>>> precision_score(y_true, y_pred, average=None)
array([0.5, 1. , 1. ])