F-beta 得分#

sklearn.metrics.fbeta_score(y_true, y_pred, *, beta, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#

计算 F-beta 得分。

F-beta 得分是精确率和召回率的加权调和平均数,最佳值为 1,最差值为 0。

beta 参数表示召回率重要性与精确率重要性的比率。beta > 1 更重视召回率,而 beta < 1 更重视精确率。例如,beta = 2 使召回率的重要性是精确率的两倍,而 beta = 0.5 则相反。渐近地,beta -> +inf 只考虑召回率,beta -> 0 只考虑精确率。

F-beta 得分的公式为

\[F_\beta = \frac{(1 + \beta^2) \text{tp}} {(1 + \beta^2) \text{tp} + \text{fp} + \beta^2 \text{fn}}\]

其中 \(\text{tp}\) 代表真正例的数量,\(\text{fp}\) 代表假正例的数量,\(\text{fn}\) 代表假负例的数量。

对超出术语`binary`的目标的支持是通过将多类别多标签数据视为一系列二元问题来实现的,每个标签对应一个问题。对于二元情况,设置`average='binary'`将返回`pos_label`的F-beta得分。如果`average`不是`'binary'`,则忽略`pos_label`,计算两个类别的F-beta得分,然后取平均值或返回两者(当`average=None`时)。类似地,对于多类别多标签目标,所有`labels`的F-beta得分将根据`average`参数返回平均值或单独返回。使用`labels`指定要计算F-beta得分的标签集。

用户指南中了解更多信息。

参数:
y_true一维数组类,或标签指示符数组/稀疏矩阵

真实(正确)的目标值。

y_pred一维数组类,或标签指示符数组/稀疏矩阵

分类器返回的估计目标值。

beta浮点数

确定组合分数中召回率的权重。

labels数组类,默认值=None

当`average != 'binary'`时要包含的标签集,以及当`average is None`时的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类别”。数据中不存在的标签可以包含在内,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,y_truey_pred中所有标签都按排序顺序使用。

0.17版本中的更改: 针对多类别问题改进了参数`labels`。

pos_label整数、浮点数、布尔值或字符串,默认值=1

如果`average='binary'`且数据为二元数据,则报告的类别;否则忽略此参数。对于多类别或多标签目标,设置`labels=[pos_label]`和`average != 'binary'`以仅报告一个标签的指标。

average{'micro','macro','samples','weighted','binary'} 或 None,默认值='binary'

此参数对于多类别/多标签目标是必需的。如果为`None`,则返回每个类别的指标。否则,这将确定对数据执行的平均类型。

'binary':

仅报告`pos_label`指定的类别的结果。这仅适用于目标(`y_{true,pred}`)为二元的情况。

'micro':

通过计算总的真正例、假负例和假正例来全局计算指标。

'macro':

计算每个标签的指标,并找到它们的未加权平均值。这不会考虑标签不平衡。

'weighted':

计算每个标签的指标,并找到它们按支持度(每个标签的真实实例数)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致F-score不在精确率和召回率之间。

'samples':

计算每个实例的指标,并找到它们的平均值(仅对于多标签分类有意义,在这种情况下与accuracy_score不同)。

sample_weight形状为 (n_samples,) 的数组类,默认值=None

样本权重。

zero_division{'warn',0.0,1.0,np.nan},默认值='warn'

设置当出现零除法时(即所有预测和标签均为负数时)返回的值。

备注

  • 如果设置为“warn”,则其作用类似于0,但也会发出警告。

  • 如果设置为`np.nan`,则此类值将从平均值中排除。

1.3版本中添加: 添加了`np.nan`选项。

返回值:
fbeta_score浮点数(如果average不为None)或浮点数组,形状=[n_unique_labels]

二元分类中正类别的F-beta得分,或多类别任务中每个类别的F-beta得分的加权平均值。

另请参阅

precision_recall_fscore_support

计算精确率、召回率、F-score和支持度。

multilabel_confusion_matrix

为每个类别或样本计算混淆矩阵。

备注

当`true positive + false positive + false negative == 0`时,f-score返回0.0并引发`UndefinedMetricWarning`。可以通过设置`zero_division`来修改此行为。

参考文献

[1]

R. Baeza-Yates 和 B. Ribeiro-Neto (2011)。现代信息检索。Addison Wesley,第 327-328 页。

示例

>>> import numpy as np
>>> from sklearn.metrics import fbeta_score
>>> y_true = [0, 1, 2, 0, 1, 2]
>>> y_pred = [0, 2, 1, 0, 0, 1]
>>> fbeta_score(y_true, y_pred, average='macro', beta=0.5)
0.23...
>>> fbeta_score(y_true, y_pred, average='micro', beta=0.5)
0.33...
>>> fbeta_score(y_true, y_pred, average='weighted', beta=0.5)
0.23...
>>> fbeta_score(y_true, y_pred, average=None, beta=0.5)
array([0.71..., 0.        , 0.        ])
>>> y_pred_empty = [0, 0, 0, 0, 0, 0]
>>> fbeta_score(y_true, y_pred_empty,
...             average="macro", zero_division=np.nan, beta=0.5)
0.12...