注意
转到结尾 下载完整的示例代码。或通过 JupyterLite 或 Binder 在您的浏览器中运行此示例
绘制岭系数作为正则化的函数#
显示估计器系数中多重共线性的影响。
Ridge
回归是此示例中使用的估计器。每种颜色代表系数向量的不同特征,并将其显示为正则化参数的函数。
此示例还显示了将岭回归应用于高度病态矩阵的有用性。对于此类矩阵,目标变量的微小变化会导致计算权重的巨大差异。在这种情况下,设置一定的正则化 (alpha) 以减少这种变化(噪声)非常有用。
当 alpha 非常大时,正则化效应会支配平方损失函数,并且系数趋于零。在路径的末尾,当 alpha 趋于零并且解趋于普通最小二乘法时,系数会表现出很大的振荡。实际上,需要以某种方式调整 alpha,以便在两者之间保持平衡。
# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause
import matplotlib.pyplot as plt
import numpy as np
from sklearn import linear_model
# X is the 10x10 Hilbert matrix
X = 1.0 / (np.arange(1, 11) + np.arange(0, 10)[:, np.newaxis])
y = np.ones(10)
计算路径#
n_alphas = 200
alphas = np.logspace(-10, -2, n_alphas)
coefs = []
for a in alphas:
ridge = linear_model.Ridge(alpha=a, fit_intercept=False)
ridge.fit(X, y)
coefs.append(ridge.coef_)
显示结果#
ax = plt.gca()
ax.plot(alphas, coefs)
ax.set_xscale("log")
ax.set_xlim(ax.get_xlim()[::-1]) # reverse axis
plt.xlabel("alpha")
plt.ylabel("weights")
plt.title("Ridge coefficients as a function of the regularization")
plt.axis("tight")
plt.show()
脚本的总运行时间:(0 分钟 0.420 秒)
相关示例
作为 L2 正则化函数的岭系数
模型正则化对训练和测试误差的影响
线性模型系数解释中的常见陷阱
在具有强离群值的数据集上,Huber 回归器与岭回归的比较