Ridge#
- class sklearn.linear_model.Ridge(alpha=1.0, *, fit_intercept=True, copy_X=True, max_iter=None, tol=0.0001, solver='auto', positive=False, random_state=None)[source]#
带有 L2 正则化的线性最小二乘。
最小化目标函数
||y - Xw||^2_2 + alpha * ||w||^2_2
此模型求解一个回归模型,其中损失函数为线性最小二乘函数,正则化由 L2 范数给出。也称为岭回归(Ridge Regression)或吉洪诺夫正则化(Tikhonov regularization)。该估计器内置支持多元回归(即当 y 为形状 (n_samples, n_targets) 的二维数组时)。
更多信息请参阅用户指南。
- 参数:
- alpha{浮点数, 形状为 (n_targets,) 的 ndarray}, 默认值=1.0
乘以 L2 项的常数,用于控制正则化强度。
alpha
必须是非负浮点数,即在[0, inf)
范围内。当
alpha = 0
时,目标函数等价于普通最小二乘,由LinearRegression
对象求解。出于数值原因,不建议在Ridge
对象中使用alpha = 0
。相反,您应该使用LinearRegression
对象。如果传入一个数组,则惩罚项被假定为特定于目标。因此,它们的数量必须对应。
- fit_intercept布尔值, 默认值=True
是否为该模型拟合截距。如果设置为 false,则计算中不会使用截距(即
X
和y
预期是中心化的)。- copy_X布尔值, 默认值=True
如果为 True,X 将被复制;否则,它可能会被覆盖。
- max_iter整数, 默认值=None
共轭梯度求解器的最大迭代次数。对于 'sparse_cg' 和 'lsqr' 求解器,默认值由 scipy.sparse.linalg 确定。对于 'sag' 求解器,默认值为 1000。对于 'lbfgs' 求解器,默认值为 15000。
- tol浮点数, 默认值=1e-4
解(
coef_
)的精度由tol
决定,它为每个求解器指定了不同的收敛准则。'svd':
tol
没有影响。'cholesky':
tol
没有影响。'sparse_cg':残差范数小于
tol
。'lsqr':
tol
被设置为 scipy.sparse.linalg.lsqr 的 atol 和 btol,它们根据矩阵和系数的范数来控制残差向量的范数。'sag' 和 'saga':系数的相对变化小于
tol
。'lbfgs':绝对(投影)梯度的最大值=最大残差值小于
tol
。
1.2 版本更改: 默认值从 1e-3 更改为 1e-4,以与其他线性模型保持一致。
- solver{'auto', 'svd', 'cholesky', 'lsqr', 'sparse_cg', 'sag', 'saga', 'lbfgs'}, 默认值='auto'
计算例程中使用的求解器
'auto' 根据数据类型自动选择求解器。
'svd' 使用 X 的奇异值分解来计算 Ridge 系数。它是最稳定的求解器,特别是对于奇异矩阵,它比 'cholesky' 更稳定,但代价是速度较慢。
'cholesky' 使用标准的 scipy.linalg.solve 函数来获得闭式解。
'sparse_cg' 使用 scipy.sparse.linalg.cg 中找到的共轭梯度求解器。作为迭代算法,此求解器比 'cholesky' 更适用于大规模数据(可设置
tol
和max_iter
)。'lsqr' 使用专用的正则化最小二乘例程 scipy.sparse.linalg.lsqr。它最快且使用迭代过程。
'sag' 使用随机平均梯度下降法,而 'saga' 使用其改进的、无偏版本 SAGA。这两种方法也使用迭代过程,并且当 n_samples 和 n_features 都很大时,通常比其他求解器更快。请注意,'sag' 和 'saga' 的快速收敛仅在特征尺度大致相同的情况下得到保证。您可以使用 sklearn.preprocessing 中的缩放器对数据进行预处理。
'lbfgs' 使用在
scipy.optimize.minimize
中实现的 L-BFGS-B 算法。仅当positive
为 True 时才能使用它。
除 'svd' 外的所有求解器都支持密集数据和稀疏数据。但是,只有 'lsqr'、'sag'、'sparse_cg' 和 'lbfgs' 在
fit_intercept
为 True 时支持稀疏输入。0.17 版本新增: 随机平均梯度下降求解器。
0.19 版本新增: SAGA 求解器。
- positive布尔值, 默认值=False
当设置为
True
时,强制系数为正。在这种情况下,只支持 'lbfgs' 求解器。- random_state整数, RandomState 实例, 默认值=None
当
solver
== 'sag' 或 'saga' 时用于打乱数据。详见词汇表。0.17 版本新增: 添加
random_state
以支持随机平均梯度。
- 属性:
- coef_形状为 (n_features,) 或 (n_targets, n_features) 的 ndarray
权重向量。
- intercept_浮点数或形状为 (n_targets,) 的 ndarray
决策函数中的独立项。如果
fit_intercept = False
,则设置为 0.0。- n_iter_None 或形状为 (n_targets,) 的 ndarray
每个目标的实际迭代次数。仅适用于 sag 和 lsqr 求解器。其他求解器将返回 None。
0.17 版本新增。
- n_features_in_整数
在拟合期间看到的特征数量。
0.24 版本新增。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 在拟合期间看到的特征名称。仅当
X
的所有特征名称均为字符串时才定义。1.0 版本新增。
- solver_字符串
计算例程在拟合时使用的求解器。
1.5 版本新增。
另请参阅
RidgeClassifier
岭分类器。
RidgeCV
内置交叉验证的岭回归。
KernelRidge
核岭回归结合了岭回归和核技巧。
备注
正则化改善了问题的条件,并减少了估计的方差。值越大表示正则化越强。在其他线性模型(例如
LogisticRegression
或LinearSVC
)中,Alpha 对应于1 / (2C)
。示例
>>> from sklearn.linear_model import Ridge >>> import numpy as np >>> n_samples, n_features = 10, 5 >>> rng = np.random.RandomState(0) >>> y = rng.randn(n_samples) >>> X = rng.randn(n_samples, n_features) >>> clf = Ridge(alpha=1.0) >>> clf.fit(X, y) Ridge()
- fit(X, y, sample_weight=None)[source]#
拟合岭回归模型。
- 参数:
- X形状为 (n_samples, n_features) 的 {ndarray, 稀疏矩阵}
训练数据。
- y形状为 (n_samples,) 或 (n_samples, n_targets) 的 ndarray
目标值。
- sample_weight浮点数或形状为 (n_samples,) 的 ndarray, 默认值=None
每个样本的独立权重。如果给定一个浮点数,每个样本将具有相同的权重。
- 返回:
- self对象
已拟合的估计器。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看用户指南,了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
封装路由信息的
MetadataRequest
。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值, 默认值=True
如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。
- 返回:
- params字典
参数名称及其对应的值。
- predict(X)[source]#
使用线性模型进行预测。
- 参数:
- X类数组或稀疏矩阵, 形状为 (n_samples, n_features)
样本。
- 返回:
- C数组, 形状为 (n_samples,)
返回预测值。
- score(X, y, sample_weight=None)[source]#
返回测试数据的决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,\(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最好的分数是 1.0,它也可以是负数(因为模型可能任意差)。一个忽略输入特征,总是预测y
期望值的常数模型将获得 0.0 的 \(R^2\) 分数。- 参数:
- X形状为 (n_samples, n_features) 的类数组
测试样本。对于某些估计器,这可能是预计算的核矩阵,或者是通用对象列表,形状为
(n_samples, n_samples_fitted)
,其中n_samples_fitted
是用于估计器拟合的样本数量。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
X
的真实值。- sample_weight形状为 (n_samples,) 的类数组, 默认值=None
样本权重。
- 返回:
- score浮点数
\(R^2\) 的
self.predict(X)
关于y
的分数。
备注
在回归器上调用
score
时使用的 \(R^2\) 分数从 0.23 版本开始使用multioutput='uniform_average'
,以与r2_score
的默认值保持一致。这影响了所有多输出回归器的score
方法(MultiOutputRegressor
除外)。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') Ridge [source]#
请求传递给
fit
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时相关(参见sklearn.set_config
)。请参阅用户指南,了解路由机制的工作原理。每个参数的选项为:
True
:请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略该请求。False
:不请求元数据,元估计器不会将其传递给fit
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应以给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。1.3 版本新增。
注意
此方法仅在将此估计器用作元估计器的子估计器时相关,例如在
Pipeline
内部使用时。否则,它没有效果。- 参数:
- sample_weight字符串, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED
fit
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **params字典
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') Ridge [source]#
请求传递给
score
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时相关(参见sklearn.set_config
)。请参阅用户指南,了解路由机制的工作原理。每个参数的选项为:
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略该请求。False
:不请求元数据,元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应以给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。1.3 版本新增。
注意
此方法仅在将此估计器用作元估计器的子估计器时相关,例如在
Pipeline
内部使用时。否则,它没有效果。- 参数:
- sample_weight字符串, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。