绘制学习曲线并检查模型的可扩展性#

在此示例中,我们将展示如何使用 LearningCurveDisplay 类轻松绘制学习曲线。此外,我们还对朴素贝叶斯和 SVM 分类器的学习曲线进行了解释。

然后,我们将通过查看这些预测模型的计算成本(而不仅仅是它们的统计精度)来探索并得出关于这些模型可扩展性的结论。

# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause

学习曲线#

学习曲线显示了在训练过程中添加更多样本的效果。通过检查模型在训练得分和测试得分方面的统计性能来描述这种效果。

在这里,我们使用 digits 数据集计算朴素贝叶斯分类器和具有 RBF 核的 SVM 分类器的学习曲线。

from sklearn.datasets import load_digits
from sklearn.naive_bayes import GaussianNB
from sklearn.svm import SVC

X, y = load_digits(return_X_y=True)
naive_bayes = GaussianNB()
svc = SVC(kernel="rbf", gamma=0.001)

from_estimator 给定数据集和要分析的预测模型,显示学习曲线。为了估计分数的不确定性,此方法使用交叉验证程序。

import matplotlib.pyplot as plt
import numpy as np

from sklearn.model_selection import LearningCurveDisplay, ShuffleSplit

fig, ax = plt.subplots(nrows=1, ncols=2, figsize=(10, 6), sharey=True)

common_params = {
    "X": X,
    "y": y,
    "train_sizes": np.linspace(0.1, 1.0, 5),
    "cv": ShuffleSplit(n_splits=50, test_size=0.2, random_state=0),
    "score_type": "both",
    "n_jobs": 4,
    "line_kw": {"marker": "o"},
    "std_display_style": "fill_between",
    "score_name": "Accuracy",
}

for ax_idx, estimator in enumerate([naive_bayes, svc]):
    LearningCurveDisplay.from_estimator(estimator, **common_params, ax=ax[ax_idx])
    handles, label = ax[ax_idx].get_legend_handles_labels()
    ax[ax_idx].legend(handles[:2], ["Training Score", "Test Score"])
    ax[ax_idx].set_title(f"Learning Curve for {estimator.__class__.__name__}")
Learning Curve for GaussianNB, Learning Curve for SVC

我们首先分析朴素贝叶斯分类器的学习曲线。它的形状在更复杂的数据集中经常出现:使用少量样本进行训练时,训练得分非常高,随着样本数量的增加而下降,而测试得分一开始非常低,然后随着样本数量的增加而增加。当所有样本都用于训练时,训练得分和测试得分变得更现实。

我们看到具有 RBF 核的 SVM 分类器的另一个典型的学习曲线。无论训练集的大小如何,训练得分都保持较高。另一方面,测试得分随着训练数据集大小的增加而增加。事实上,它会增加到达到平稳期为止。观察到这种平稳期表明,获取新数据来训练模型可能没有用,因为模型的泛化性能不会再提高了。

复杂度分析#

除了这些学习曲线之外,还可以查看预测模型在训练和评分时间方面的可扩展性。

LearningCurveDisplay 类不提供此类信息。我们需要改用 learning_curve 函数并手动绘制图表。

from sklearn.model_selection import learning_curve

common_params = {
    "X": X,
    "y": y,
    "train_sizes": np.linspace(0.1, 1.0, 5),
    "cv": ShuffleSplit(n_splits=50, test_size=0.2, random_state=0),
    "n_jobs": 4,
    "return_times": True,
}

train_sizes, _, test_scores_nb, fit_times_nb, score_times_nb = learning_curve(
    naive_bayes, **common_params
)
train_sizes, _, test_scores_svm, fit_times_svm, score_times_svm = learning_curve(
    svc, **common_params
)
fig, ax = plt.subplots(nrows=2, ncols=2, figsize=(16, 12), sharex=True)

for ax_idx, (fit_times, score_times, estimator) in enumerate(
    zip(
        [fit_times_nb, fit_times_svm],
        [score_times_nb, score_times_svm],
        [naive_bayes, svc],
    )
):
    # scalability regarding the fit time
    ax[0, ax_idx].plot(train_sizes, fit_times.mean(axis=1), "o-")
    ax[0, ax_idx].fill_between(
        train_sizes,
        fit_times.mean(axis=1) - fit_times.std(axis=1),
        fit_times.mean(axis=1) + fit_times.std(axis=1),
        alpha=0.3,
    )
    ax[0, ax_idx].set_ylabel("Fit time (s)")
    ax[0, ax_idx].set_title(
        f"Scalability of the {estimator.__class__.__name__} classifier"
    )

    # scalability regarding the score time
    ax[1, ax_idx].plot(train_sizes, score_times.mean(axis=1), "o-")
    ax[1, ax_idx].fill_between(
        train_sizes,
        score_times.mean(axis=1) - score_times.std(axis=1),
        score_times.mean(axis=1) + score_times.std(axis=1),
        alpha=0.3,
    )
    ax[1, ax_idx].set_ylabel("Score time (s)")
    ax[1, ax_idx].set_xlabel("Number of training samples")
Scalability of the GaussianNB classifier, Scalability of the SVC classifier

我们看到 SVM 和朴素贝叶斯分类器的可扩展性差异很大。SVM 分类器在拟合和评分时的复杂度随着样本数量的增加而迅速增加。事实上,众所周知,此分类器的拟合时间复杂度大于样本数量的二次方,这使得它难以扩展到拥有超过几万个样本的数据集。相反,朴素贝叶斯分类器的可扩展性要好得多,在拟合和评分时的复杂度更低。

随后,我们可以检查增加训练时间和交叉验证得分之间的权衡。

fig, ax = plt.subplots(nrows=1, ncols=2, figsize=(16, 6))

for ax_idx, (fit_times, test_scores, estimator) in enumerate(
    zip(
        [fit_times_nb, fit_times_svm],
        [test_scores_nb, test_scores_svm],
        [naive_bayes, svc],
    )
):
    ax[ax_idx].plot(fit_times.mean(axis=1), test_scores.mean(axis=1), "o-")
    ax[ax_idx].fill_between(
        fit_times.mean(axis=1),
        test_scores.mean(axis=1) - test_scores.std(axis=1),
        test_scores.mean(axis=1) + test_scores.std(axis=1),
        alpha=0.3,
    )
    ax[ax_idx].set_ylabel("Accuracy")
    ax[ax_idx].set_xlabel("Fit time (s)")
    ax[ax_idx].set_title(
        f"Performance of the {estimator.__class__.__name__} classifier"
    )

plt.show()
Performance of the GaussianNB classifier, Performance of the SVC classifier

在这些图中,我们可以寻找交叉验证得分不再增加而只有训练时间增加的拐点。

脚本的总运行时间:(0 分 26.655 秒)

相关示例

缩放 SVC 的正则化参数

缩放 SVC 的正则化参数

概率校准曲线

概率校准曲线

使用可视化 API 的 ROC 曲线

使用可视化 API 的 ROC 曲线

使用交叉验证的接收者操作特征 (ROC)

使用交叉验证的接收者操作特征 (ROC)

Sphinx-Gallery 生成的图库