零一损失#

sklearn.metrics.zero_one_loss(y_true, y_pred, *, normalize=True, sample_weight=None)[source]#

零一分类损失。

如果normalize为True,则返回误分类的比例(浮点数),否则返回误分类的数量(整数)。最佳性能为0。

更多信息请阅读用户指南

参数:
y_true一维数组或标签指示符数组/稀疏矩阵

真实标签。

y_pred一维数组或标签指示符数组/稀疏矩阵

预测标签,由分类器返回。

normalize布尔值,默认为True

如果False,则返回误分类的数量。否则,返回误分类的比例。

sample_weight形状为(n_samples,)的数组,默认为None

样本权重。

返回值:
损失值 (loss)浮点数或整数,

如果 normalize == True,则返回错误分类的比例(浮点数),否则返回错误分类的数量(整数)。

另请参阅

accuracy_score

计算准确率得分。默认情况下,该函数将返回正确预测的比例除以总预测数。

汉明损失

计算两组样本之间的平均汉明损失或汉明距离。

Jaccard相似系数

计算 Jaccard 相似系数得分。

备注

在多标签分类中,zero_one_loss 函数对应于子集零一损失:对于每个样本,必须正确预测整个标签集,否则该样本的损失等于 1。

示例

>>> from sklearn.metrics import zero_one_loss
>>> y_pred = [1, 2, 3, 4]
>>> y_true = [2, 2, 3, 4]
>>> zero_one_loss(y_true, y_pred)
0.25
>>> zero_one_loss(y_true, y_pred, normalize=False)
1.0

在使用二元标签指示符的多标签情况下

>>> import numpy as np
>>> zero_one_loss(np.array([[0, 1], [1, 1]]), np.ones((2, 2)))
0.5