fbeta_score#
- sklearn.metrics.fbeta_score(y_true, y_pred, *, beta, labels=None, pos_label=1, average='binary', sample_weight=None, zero_division='warn')[source]#
计算 F-beta 分数。
F-beta 分数是精确率和召回率的加权调和平均值,其最佳值为 1,最差值为 0。
参数
beta
表示召回率重要性与精确率重要性的比率。当beta > 1
时,召回率权重更高,而当beta < 1
时,精确率权重更高。例如,beta = 2
使召回率的重要性是精确率的两倍,而beta = 0.5
则相反。渐近地,当beta -> +inf
时,只考虑召回率;当beta -> 0
时,只考虑精确率。F-beta 分数的公式为
\[F_\beta = \frac{(1 + \beta^2) \text{tp}} {(1 + \beta^2) \text{tp} + \text{fp} + \beta^2 \text{fn}}\]其中 \(\text{tp}\) 是真阳性数量,\(\text{fp}\) 是假阳性数量,\(\text{fn}\) 是假阴性数量。
除了术语
binary
目标之外,通过将 多类别 和 多标签 数据视为二元问题集合,为每个标签计算 F-beta 分数。对于 二元 情况,设置average='binary'
将返回pos_label
的 F-beta 分数。如果average
不是'binary'
,则pos_label
被忽略,并且计算两个类别的 F-beta 分数,然后进行平均或返回两者(当average=None
时)。类似地,对于 多类别 和 多标签 目标,所有labels
的 F-beta 分数将根据average
参数返回或平均。使用labels
指定要计算 F-beta 分数的标签集。在 用户指南 中了解更多。
- 参数:
- y_true1维类数组,或标签指示器数组/稀疏矩阵
真实(正确)目标值。
- y_pred1维类数组,或标签指示器数组/稀疏矩阵
分类器返回的估计目标。
- beta浮点数
确定召回率在组合分数中的权重。
- labels类数组,默认为 None
当
average != 'binary'
时要包含的标签集,以及当average is None
时的它们的顺序。数据中存在的标签可以被排除,例如在多类别分类中排除“负类”。数据中不存在的标签可以被包含,并将被“分配”0个样本。对于多标签目标,标签是列索引。默认情况下,y_true
和y_pred
中的所有标签都按排序顺序使用。0.17 版本中更改: 参数
labels
针对多类别问题进行了改进。- pos_label整型、浮点型、布尔型或字符串,默认为 1
如果
average='binary'
且数据是二元的,则报告此类别,否则此参数将被忽略。对于多类别或多标签目标,设置labels=[pos_label]
且average != 'binary'
以仅报告一个标签的指标。- average{‘micro’, ‘macro’, ‘samples’, ‘weighted’, ‘binary’} 或 None,默认为 ‘binary’
对于多类别/多标签目标,此参数是必需的。如果为
None
,则返回每个类别的指标。否则,这将确定对数据执行的平均类型'binary'
:仅报告由
pos_label
指定的类别的结果。这仅适用于目标 (y_{true,pred}
) 是二元的情况。'micro'
:通过计算总真阳性、假阴性和假阳性来全局计算指标。
'macro'
:计算每个标签的指标,并找到它们的未加权平均值。这不考虑标签不平衡。
'weighted'
:计算每个标签的指标,并找到它们按支持(每个标签的真实实例数)加权的平均值。这改变了“macro”以考虑标签不平衡;它可能导致 F 分数不在精确率和召回率之间。
'samples'
:计算每个实例的指标,并找到它们的平均值(仅对多标签分类有意义,这与
accuracy_score
不同)。
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
样本权重。
- zero_division{“warn”, 0.0, 1.0, np.nan},默认为 “warn”
当发生零除时(即所有预测和标签均为负时),设置要返回的值。
注意
如果设置为“warn”,则其行为类似于 0,但也会引发警告。
如果设置为
np.nan
,则这些值将从平均值中排除。
1.3 版本新增: 增加了
np.nan
选项。
- 返回:
- fbeta_score浮点数(如果 average 不是 None)或浮点数数组,形状 = [n_unique_labels]
二元分类中正类的 F-beta 分数,或多类别任务中每个类的 F-beta 分数的加权平均值。
另请参见
precision_recall_fscore_support
计算精确率、召回率、F 分数和支持。
multilabel_confusion_matrix
计算每个类别或样本的混淆矩阵。
注意
当
true positive + false positive + false negative == 0
时,F 分数返回 0.0 并引发UndefinedMetricWarning
。此行为可以通过设置zero_division
来修改。参考文献
[1]R. Baeza-Yates and B. Ribeiro-Neto (2011). Modern Information Retrieval. Addison Wesley, pp. 327-328.
[2]示例
>>> import numpy as np >>> from sklearn.metrics import fbeta_score >>> y_true = [0, 1, 2, 0, 1, 2] >>> y_pred = [0, 2, 1, 0, 0, 1] >>> fbeta_score(y_true, y_pred, average='macro', beta=0.5) 0.238 >>> fbeta_score(y_true, y_pred, average='micro', beta=0.5) 0.33 >>> fbeta_score(y_true, y_pred, average='weighted', beta=0.5) 0.238 >>> fbeta_score(y_true, y_pred, average=None, beta=0.5) array([0.71, 0. , 0. ]) >>> y_pred_empty = [0, 0, 0, 0, 0, 0] >>> fbeta_score(y_true, y_pred_empty, ... average="macro", zero_division=np.nan, beta=0.5) 0.128