lasso_path#
- sklearn.linear_model.lasso_path(X, y, *, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, **params)[source]#
使用坐标下降法计算 Lasso 路径。
Lasso 优化函数对于单输出和多输出任务有所不同。
对于单输出任务,它是
(1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1
对于多输出任务,它是
(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21
其中
||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}
即每行范数的和。
在用户指南中了解更多。
- 参数:
- X{类数组, 稀疏矩阵},形状为 (n_samples, n_features)
训练数据。直接以 Fortran 连续数据形式传入,以避免不必要的内存复制。如果
y
是单输出,则X
可以是稀疏的。- y{类数组, 稀疏矩阵},形状为 (n_samples,) 或 (n_samples, n_targets)
目标值。
- eps浮点数, 默认值=1e-3
路径的长度。
eps=1e-3
意味着alpha_min / alpha_max = 1e-3
。- n_alphas整型, 默认值=100
正则化路径上的 alpha 数量。
- alphas类数组, 默认值=None
计算模型的 alpha 列表。如果为
None
,则 alpha 将自动设置。- precompute‘auto’, 布尔值或形状为 (n_features, n_features) 的类数组, 默认值=’auto’
是否使用预计算的 Gram 矩阵以加速计算。如果设置为
'auto'
,则由我们决定。Gram 矩阵也可以作为参数传入。- Xy类数组, 形状为 (n_features,) 或 (n_features, n_targets), 默认值=None
Xy = np.dot(X.T, y),可以预计算。仅当 Gram 矩阵预计算时有用。
- copy_X布尔值, 默认值=True
如果为
True
,则 X 将被复制;否则,可能会被覆盖。- coef_init类数组, 形状为 (n_features, ), 默认值=None
系数的初始值。
- verbose布尔值或整型, 默认值=False
详细程度。
- return_n_iter布尔值, 默认值=False
是否返回迭代次数。
- positive布尔值, 默认值=False
如果设置为 True,则强制系数为正。(仅当
y.ndim == 1
时允许)。- **params关键字参数
传递给坐标下降求解器的关键字参数。
- 返回:
- alphas形状为 (n_alphas,) 的 ndarray
模型计算路径上的 alpha 值。
- coefs形状为 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas) 的 ndarray
路径上的系数。
- dual_gaps形状为 (n_alphas,) 的 ndarray
每个 alpha 优化结束时的对偶间隙。
- n_iters整型列表
坐标下降优化器为每个 alpha 达到指定容差所需的迭代次数。
另请参阅
lars_path
使用 LARS 算法计算最小角回归或 Lasso 路径。
Lasso
Lasso 是一种估计稀疏系数的线性模型。
LassoLars
使用最小角回归(Lars)拟合 Lasso 模型。
LassoCV
在正则化路径上迭代拟合的 Lasso 线性模型。
LassoLarsCV
使用 LARS 算法进行交叉验证的 Lasso。
sklearn.decomposition.sparse_encode
可用于将信号转换为固定原子稀疏线性组合的估计器。
注意
例如,请参阅 examples/linear_model/plot_lasso_lasso_lars_elasticnet_path.py。
为避免不必要的内存复制,fit 方法的 X 参数应直接作为 Fortran 连续的 numpy 数组传入。
请注意,在某些情况下,Lars 求解器实现此功能可能明显更快。特别是,可以使用线性插值来检索 lars_path 输出值之间的模型系数。
示例
比较带插值的 lasso_path 和 lars_path
>>> import numpy as np >>> from sklearn.linear_model import lasso_path >>> X = np.array([[1, 2, 3.1], [2.3, 5.4, 4.3]]).T >>> y = np.array([1, 2, 3.1]) >>> # Use lasso_path to compute a coefficient path >>> _, coef_path, _ = lasso_path(X, y, alphas=[5., 1., .5]) >>> print(coef_path) [[0. 0. 0.46874778] [0.2159048 0.4425765 0.23689075]]
>>> # Now use lars_path and 1D linear interpolation to compute the >>> # same path >>> from sklearn.linear_model import lars_path >>> alphas, active, coef_path_lars = lars_path(X, y, method='lasso') >>> from scipy import interpolate >>> coef_path_continuous = interpolate.interp1d(alphas[::-1], ... coef_path_lars[:, ::-1]) >>> print(coef_path_continuous([5., 1., .5])) [[0. 0. 0.46915237] [0.2159048 0.4425765 0.23668876]]