scikit-learn 1.5 的发布亮点#

我们很高兴宣布 scikit-learn 1.5 发布!添加了许多错误修复和改进,以及一些关键的新功能。下面我们将详细介绍此版本的亮点。**有关所有更改的详尽列表**,请参阅发行说明

要安装最新版本(使用 pip)

pip install --upgrade scikit-learn

或使用 conda

conda install -c conda-forge scikit-learn

FixedThresholdClassifier:设置二元分类器的决策阈值#

scikit-learn 的所有二元分类器都使用 0.5 的固定决策阈值来将概率估计(即 predict_proba 的输出)转换为类预测。但是,对于给定问题,0.5 几乎从来不是所需的阈值。FixedThresholdClassifier 允许包装任何二元分类器并设置自定义决策阈值。

from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
from sklearn.metrics import ConfusionMatrixDisplay


X, y = make_classification(n_samples=10_000, weights=[0.9, 0.1], random_state=0)
X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=0)

classifier_05 = LogisticRegression(C=1e6, random_state=0).fit(X_train, y_train)
_ = ConfusionMatrixDisplay.from_estimator(classifier_05, X_test, y_test)
plot release highlights 1 5 0

降低阈值,即允许更多样本被归类为正类,会增加真阳性的数量,但也会增加假阳性的数量(正如 ROC 曲线的凹性所知)。

from sklearn.model_selection import FixedThresholdClassifier

classifier_01 = FixedThresholdClassifier(classifier_05, threshold=0.1)
classifier_01.fit(X_train, y_train)
_ = ConfusionMatrixDisplay.from_estimator(classifier_01, X_test, y_test)
plot release highlights 1 5 0

TunedThresholdClassifierCV:调整二元分类器的决策阈值#

可以使用 TunedThresholdClassifierCV 调整二元分类器的决策阈值,以优化给定的指标。

当模型旨在部署在特定应用场景中时,它特别有用,在该场景中,我们可以为真阳性、真阴性、假阳性和假阴性分配不同的收益或成本。

让我们通过考虑一个任意情况来说明这一点,其中

  • 每个真阳性获得 1 个单位的利润,例如欧元、健康寿命年等;

  • 真阴性没有收益或成本;

  • 每个假阴性成本为 2;

  • 每个假阳性成本为 0.1。

我们的指标量化了每个样本的平均利润,它由以下 Python 函数定义

from sklearn.metrics import confusion_matrix


def custom_score(y_observed, y_pred):
    tn, fp, fn, tp = confusion_matrix(y_observed, y_pred, normalize="all").ravel()
    return tp - 2 * fn - 0.1 * fp


print("Untuned decision threshold: 0.5")
print(f"Custom score: {custom_score(y_test, classifier_05.predict(X_test)):.2f}")
Untuned decision threshold: 0.5
Custom score: -0.12

有趣的是,观察到每个预测的平均收益为负,这意味着该决策系统平均而言正在亏损。

调整阈值以优化此自定义指标会得到一个更小的阈值,该阈值允许更多样本被归类为正类。结果,每个预测的平均收益得到改善。

from sklearn.model_selection import TunedThresholdClassifierCV
from sklearn.metrics import make_scorer

custom_scorer = make_scorer(
    custom_score, response_method="predict", greater_is_better=True
)
tuned_classifier = TunedThresholdClassifierCV(
    classifier_05, cv=5, scoring=custom_scorer
).fit(X, y)

print(f"Tuned decision threshold: {tuned_classifier.best_threshold_:.3f}")
print(f"Custom score: {custom_score(y_test, tuned_classifier.predict(X_test)):.2f}")
Tuned decision threshold: 0.071
Custom score: 0.04

我们观察到,调整决策阈值可以将平均而言亏损的机器学习系统转变为有利可图的系统。

在实践中,定义有意义的特定于应用程序的指标可能涉及使错误预测的成本和良好预测的收益取决于每个单独数据点的辅助元数据,例如欺诈检测系统中的交易金额。

为了实现这一点,TunedThresholdClassifierCV 利用元数据路由支持(元数据路由用户指南),允许优化复杂的业务指标,如 成本敏感学习的决策阈值后调优 中所述。

PCA 中的性能改进#

PCA 拥有一个新的求解器,"covariance_eigh",对于具有许多数据点和少量特征的数据集,它比其他求解器快一个数量级,并且内存效率更高。

from sklearn.datasets import make_low_rank_matrix
from sklearn.decomposition import PCA

X = make_low_rank_matrix(
    n_samples=10_000, n_features=100, tail_strength=0.1, random_state=0
)

pca = PCA(n_components=10, svd_solver="covariance_eigh").fit(X)
print(f"Explained variance: {pca.explained_variance_ratio_.sum():.2f}")
Explained variance: 0.88

新的求解器也接受稀疏输入数据

from scipy.sparse import random

X = random(10_000, 100, format="csr", random_state=0)

pca = PCA(n_components=10, svd_solver="covariance_eigh").fit(X)
print(f"Explained variance: {pca.explained_variance_ratio_.sum():.2f}")
Explained variance: 0.13

"full" 求解器也得到了改进,以使用更少的内存并允许更快的转换。默认的 svd_solver="auto"` 选项利用了新的求解器,现在能够为稀疏数据集选择合适的求解器。

与大多数其他 PCA 求解器类似,新的 "covariance_eigh" 求解器可以通过启用对 数组 API 的实验支持,在输入数据作为 PyTorch 或 CuPy 数组传递时利用 GPU 计算。

ColumnTransformer 可索引#

现在可以使用名称索引直接访问 ColumnTransformer 的转换器。

import numpy as np
from sklearn.compose import ColumnTransformer
from sklearn.preprocessing import StandardScaler, OneHotEncoder

X = np.array([[0, 1, 2], [3, 4, 5]])
column_transformer = ColumnTransformer(
    [("std_scaler", StandardScaler(), [0]), ("one_hot", OneHotEncoder(), [1, 2])]
)

column_transformer.fit(X)

print(column_transformer["std_scaler"])
print(column_transformer["one_hot"])
StandardScaler()
OneHotEncoder()

SimpleImputer 的自定义插补策略#

SimpleImputer 现在支持自定义插补策略,使用可调用对象从列向量的非缺失值计算标量值。

from sklearn.impute import SimpleImputer

X = np.array(
    [
        [-1.1, 1.1, 1.1],
        [3.9, -1.2, np.nan],
        [np.nan, 1.3, np.nan],
        [-0.1, -1.4, -1.4],
        [-4.9, 1.5, -1.5],
        [np.nan, 1.6, 1.6],
    ]
)


def smallest_abs(arr):
    """Return the smallest absolute value of a 1D array."""
    return np.min(np.abs(arr))


imputer = SimpleImputer(strategy=smallest_abs)

imputer.fit_transform(X)
array([[-1.1,  1.1,  1.1],
       [ 3.9, -1.2,  1.1],
       [ 0.1,  1.3,  1.1],
       [-0.1, -1.4, -1.4],
       [-4.9,  1.5, -1.5],
       [ 0.1,  1.6,  1.6]])

使用非数值数组的成对距离#

pairwise_distances 现在可以使用可调用指标计算非数值数组之间的距离。

from sklearn.metrics import pairwise_distances

X = ["cat", "dog"]
Y = ["cat", "fox"]


def levenshtein_distance(x, y):
    """Return the Levenshtein distance between two strings."""
    if x == "" or y == "":
        return max(len(x), len(y))
    if x[0] == y[0]:
        return levenshtein_distance(x[1:], y[1:])
    return 1 + min(
        levenshtein_distance(x[1:], y),
        levenshtein_distance(x, y[1:]),
        levenshtein_distance(x[1:], y[1:]),
    )


pairwise_distances(X, Y, metric=levenshtein_distance)
array([[0., 3.],
       [3., 2.]])

脚本的总运行时间:(0 分钟 1.111 秒)

相关示例

决策函数截止点的后验调优

决策函数截止点的后验调优

成本敏感学习的决策阈值后调优

成本敏感学习的决策阈值后调优

scikit-learn 0.22 的发布亮点

scikit-learn 0.22 的发布亮点

scikit-learn 1.3 的发布亮点

scikit-learn 1.3 的发布亮点

由 Sphinx-Gallery 生成的图库