Ridge#

class sklearn.linear_model.Ridge(alpha=1.0, *, fit_intercept=True, copy_X=True, max_iter=None, tol=0.0001, solver='auto', positive=False, random_state=None)[source]#

带有 L2 正则化的线性最小二乘。

最小化目标函数

||y - Xw||^2_2 + alpha * ||w||^2_2

此模型求解一个回归模型,其中损失函数为线性最小二乘函数,正则化由 L2 范数给出。也称为岭回归(Ridge Regression)或吉洪诺夫正则化(Tikhonov regularization)。该估计器内置支持多元回归(即当 y 为形状 (n_samples, n_targets) 的二维数组时)。

更多信息请参阅用户指南

参数:
alpha{浮点数, 形状为 (n_targets,) 的 ndarray}, 默认值=1.0

乘以 L2 项的常数,用于控制正则化强度。alpha 必须是非负浮点数,即在 [0, inf) 范围内。

alpha = 0 时,目标函数等价于普通最小二乘,由 LinearRegression 对象求解。出于数值原因,不建议在 Ridge 对象中使用 alpha = 0。相反,您应该使用 LinearRegression 对象。

如果传入一个数组,则惩罚项被假定为特定于目标。因此,它们的数量必须对应。

fit_intercept布尔值, 默认值=True

是否为该模型拟合截距。如果设置为 false,则计算中不会使用截距(即 Xy 预期是中心化的)。

copy_X布尔值, 默认值=True

如果为 True,X 将被复制;否则,它可能会被覆盖。

max_iter整数, 默认值=None

共轭梯度求解器的最大迭代次数。对于 'sparse_cg' 和 'lsqr' 求解器,默认值由 scipy.sparse.linalg 确定。对于 'sag' 求解器,默认值为 1000。对于 'lbfgs' 求解器,默认值为 15000。

tol浮点数, 默认值=1e-4

解(coef_)的精度由 tol 决定,它为每个求解器指定了不同的收敛准则。

  • 'svd':tol 没有影响。

  • 'cholesky':tol 没有影响。

  • 'sparse_cg':残差范数小于 tol

  • 'lsqr':tol 被设置为 scipy.sparse.linalg.lsqr 的 atol 和 btol,它们根据矩阵和系数的范数来控制残差向量的范数。

  • 'sag' 和 'saga':系数的相对变化小于 tol

  • 'lbfgs':绝对(投影)梯度的最大值=最大残差值小于 tol

1.2 版本更改: 默认值从 1e-3 更改为 1e-4,以与其他线性模型保持一致。

solver{'auto', 'svd', 'cholesky', 'lsqr', 'sparse_cg', 'sag', 'saga', 'lbfgs'}, 默认值='auto'

计算例程中使用的求解器

  • 'auto' 根据数据类型自动选择求解器。

  • 'svd' 使用 X 的奇异值分解来计算 Ridge 系数。它是最稳定的求解器,特别是对于奇异矩阵,它比 'cholesky' 更稳定,但代价是速度较慢。

  • 'cholesky' 使用标准的 scipy.linalg.solve 函数来获得闭式解。

  • 'sparse_cg' 使用 scipy.sparse.linalg.cg 中找到的共轭梯度求解器。作为迭代算法,此求解器比 'cholesky' 更适用于大规模数据(可设置 tolmax_iter)。

  • 'lsqr' 使用专用的正则化最小二乘例程 scipy.sparse.linalg.lsqr。它最快且使用迭代过程。

  • 'sag' 使用随机平均梯度下降法,而 'saga' 使用其改进的、无偏版本 SAGA。这两种方法也使用迭代过程,并且当 n_samples 和 n_features 都很大时,通常比其他求解器更快。请注意,'sag' 和 'saga' 的快速收敛仅在特征尺度大致相同的情况下得到保证。您可以使用 sklearn.preprocessing 中的缩放器对数据进行预处理。

  • 'lbfgs' 使用在 scipy.optimize.minimize 中实现的 L-BFGS-B 算法。仅当 positive 为 True 时才能使用它。

除 'svd' 外的所有求解器都支持密集数据和稀疏数据。但是,只有 'lsqr'、'sag'、'sparse_cg' 和 'lbfgs' 在 fit_intercept 为 True 时支持稀疏输入。

0.17 版本新增: 随机平均梯度下降求解器。

0.19 版本新增: SAGA 求解器。

positive布尔值, 默认值=False

当设置为 True 时,强制系数为正。在这种情况下,只支持 'lbfgs' 求解器。

random_state整数, RandomState 实例, 默认值=None

solver == 'sag' 或 'saga' 时用于打乱数据。详见词汇表

0.17 版本新增: 添加 random_state 以支持随机平均梯度。

属性:
coef_形状为 (n_features,) 或 (n_targets, n_features) 的 ndarray

权重向量。

intercept_浮点数或形状为 (n_targets,) 的 ndarray

决策函数中的独立项。如果 fit_intercept = False,则设置为 0.0。

n_iter_None 或形状为 (n_targets,) 的 ndarray

每个目标的实际迭代次数。仅适用于 sag 和 lsqr 求解器。其他求解器将返回 None。

0.17 版本新增。

n_features_in_整数

拟合期间看到的特征数量。

0.24 版本新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

1.0 版本新增。

solver_字符串

计算例程在拟合时使用的求解器。

1.5 版本新增。

另请参阅

RidgeClassifier

岭分类器。

RidgeCV

内置交叉验证的岭回归。

KernelRidge

核岭回归结合了岭回归和核技巧。

备注

正则化改善了问题的条件,并减少了估计的方差。值越大表示正则化越强。在其他线性模型(例如 LogisticRegressionLinearSVC)中,Alpha 对应于 1 / (2C)

示例

>>> from sklearn.linear_model import Ridge
>>> import numpy as np
>>> n_samples, n_features = 10, 5
>>> rng = np.random.RandomState(0)
>>> y = rng.randn(n_samples)
>>> X = rng.randn(n_samples, n_features)
>>> clf = Ridge(alpha=1.0)
>>> clf.fit(X, y)
Ridge()
fit(X, y, sample_weight=None)[source]#

拟合岭回归模型。

参数:
X形状为 (n_samples, n_features) 的 {ndarray, 稀疏矩阵}

训练数据。

y形状为 (n_samples,) 或 (n_samples, n_targets) 的 ndarray

目标值。

sample_weight浮点数或形状为 (n_samples,) 的 ndarray, 默认值=None

每个样本的独立权重。如果给定一个浮点数,每个样本将具有相同的权重。

返回:
self对象

已拟合的估计器。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看用户指南,了解路由机制的工作原理。

返回:
routingMetadataRequest

封装路由信息的 MetadataRequest

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔值, 默认值=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
params字典

参数名称及其对应的值。

predict(X)[source]#

使用线性模型进行预测。

参数:
X类数组或稀疏矩阵, 形状为 (n_samples, n_features)

样本。

返回:
C数组, 形状为 (n_samples,)

返回预测值。

score(X, y, sample_weight=None)[source]#

返回测试数据的决定系数

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最好的分数是 1.0,它也可以是负数(因为模型可能任意差)。一个忽略输入特征,总是预测 y 期望值的常数模型将获得 0.0 的 \(R^2\) 分数。

参数:
X形状为 (n_samples, n_features) 的类数组

测试样本。对于某些估计器,这可能是预计算的核矩阵,或者是通用对象列表,形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是用于估计器拟合的样本数量。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

X 的真实值。

sample_weight形状为 (n_samples,) 的类数组, 默认值=None

样本权重。

返回:
score浮点数

\(R^2\)self.predict(X) 关于 y 的分数。

备注

在回归器上调用 score 时使用的 \(R^2\) 分数从 0.23 版本开始使用 multioutput='uniform_average',以与 r2_score 的默认值保持一致。这影响了所有多输出回归器的 score 方法(MultiOutputRegressor 除外)。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') Ridge[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(参见 sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为:

  • True:请求元数据,如果提供则传递给 fit。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,元估计器不会将其传递给 fit

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅在将此估计器用作元估计器的子估计器时相关,例如在 Pipeline 内部使用时。否则,它没有效果。

参数:
sample_weight字符串, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

fit 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') Ridge[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(参见 sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为:

  • True:请求元数据,如果提供则传递给 score。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,元估计器不会将其传递给 score

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅在将此估计器用作元估计器的子估计器时相关,例如在 Pipeline 内部使用时。否则,它没有效果。

参数:
sample_weight字符串, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

score 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。