L1-Logistic 回归的正则化路径#

在从 Iris 数据集派生的二元分类问题上训练 l1 正则化的逻辑回归模型。

这些模型按从最强正则化到最弱正则化的顺序排列。收集模型的 4 个系数并将其绘制为“正则化路径”:在图的左侧(强正则化器),所有系数都恰好为 0。当正则化逐渐变松时,系数可以一个接一个地获得非零值。

在这里,我们选择 liblinear 求解器,因为它可以有效地针对具有非平滑、稀疏诱导 l1 惩罚的逻辑回归损失进行优化。

另请注意,我们为容差设置了一个较低的值,以确保模型在收集系数之前已收敛。

我们还使用 warm_start=True,这意味着模型的系数被重复使用来初始化下一个模型拟合,以加快完整路径的计算速度。

# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause

加载数据#

from sklearn import datasets

iris = datasets.load_iris()
X = iris.data
y = iris.target

X = X[y != 2]
y = y[y != 2]

X /= X.max()  # Normalize X to speed-up convergence

计算正则化路径#

import numpy as np

from sklearn import linear_model
from sklearn.svm import l1_min_c

cs = l1_min_c(X, y, loss="log") * np.logspace(0, 10, 16)

clf = linear_model.LogisticRegression(
    penalty="l1",
    solver="liblinear",
    tol=1e-6,
    max_iter=int(1e6),
    warm_start=True,
    intercept_scaling=10000.0,
)
coefs_ = []
for c in cs:
    clf.set_params(C=c)
    clf.fit(X, y)
    coefs_.append(clf.coef_.ravel().copy())

coefs_ = np.array(coefs_)

绘制正则化路径#

import matplotlib.pyplot as plt

plt.plot(np.log10(cs), coefs_, marker="o")
ymin, ymax = plt.ylim()
plt.xlabel("log(C)")
plt.ylabel("Coefficients")
plt.title("Logistic Regression Path")
plt.axis("tight")
plt.show()
Logistic Regression Path

脚本总运行时间:(0 分钟 0.122 秒)

相关示例

Ridge 系数作为 L2 正则化的函数

Ridge 系数作为 L2 正则化的函数

模型正则化对训练和测试误差的影响

模型正则化对训练和测试误差的影响

绘制 Ridge 系数作为正则化的函数

绘制 Ridge 系数作为正则化的函数

使用多项式逻辑回归 + L1 进行 MNIST 分类

使用多项式逻辑回归 + L1 进行 MNIST 分类

由 Sphinx-Gallery 生成的图库