LASSO路径#
- sklearn.linear_model.lasso_path(X, y, *, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, **params)[源代码]#
- 使用坐标下降法计算Lasso路径。 - Lasso优化函数对于单输出和多输出任务有所不同。 - 对于单输出任务,它是: - (1 / (2 * n_samples)) * ||y - Xw||^2_2 + alpha * ||w||_1 - 对于多输出任务,它是: - (1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21 - 其中 - ||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2} - 即每行的范数之和。 - 更多信息请阅读 用户指南。 - 参数:
- X形状为 (n_samples, n_features) 的 {array-like, sparse matrix}
- 训练数据。直接作为 Fortran 连续数据传递以避免不必要的内存复制。如果 - y是单输出,则- X可以是稀疏矩阵。
- y形状为 (n_samples,) 或 (n_samples, n_targets) 的 {array-like, sparse matrix}
- 目标值。 
- epsfloat, 默认值=1e-3
- 路径长度。 - eps=1e-3表示- alpha_min / alpha_max = 1e-3。
- n_alphasint, 默认值=100
- 正则化路径上的 alpha 个数。 
- alphasarray-like, 默认值=None
- 计算模型的 alpha 列表。如果为 - None,则自动设置 alphas。
- precompute‘auto’,bool 或形状为 (n_features, n_features) 的 array-like,默认值='auto'
- 是否使用预计算的 Gram 矩阵来加速计算。如果设置为 - 'auto',则由函数自动决定。Gram 矩阵也可以作为参数传递。
- Xy形状为 (n_features,) 或 (n_features, n_targets) 的 array-like,默认值=None
- Xy = np.dot(X.T, y) 可以预先计算。仅当预先计算 Gram 矩阵时才有用。 
- copy_Xbool, 默认值=True
- 如果为 - True,则会复制 X;否则,它可能会被覆盖。
- coef_init形状为 (n_features,) 的 array-like,默认值=None
- 系数的初始值。 
- verbosebool 或 int,默认值=False
- 详细程度。 
- return_n_iterbool, 默认值=False
- 是否返回迭代次数。 
- positivebool, 默认值=False
- 如果设置为 True,则强制系数为正。(仅当 - y.ndim == 1时允许)。
- **paramskwargs
- 传递给坐标下降求解器的关键字参数。 
 
- 返回:
- alphas形状为 (n_alphas,) 的 ndarray
- 计算模型的路径上的 alphas。 
- coefs形状为 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas) 的 ndarray
- 路径上的系数。 
- dual_gaps形状为 (n_alphas,) 的 ndarray
- 每个 alpha 优化结束时的对偶间隙。 
- n_iters整数列表
- 对于每个 alpha,坐标下降优化器达到指定容差所需的迭代次数。 
 
 - 另请参见 - lars_path
- 使用 LARS 算法计算最小角回归或 Lasso 路径。 
- Lasso
- Lasso 是一种估计稀疏系数的线性模型。 
- LassoLars
- 使用最小角回归(也称为 Lars)拟合的 Lasso 模型。 
- LassoCV
- 具有沿正则化路径迭代拟合的 Lasso 线性模型。 
- LassoLarsCV
- 使用 LARS 算法进行交叉验证的 Lasso。 
- sklearn.decomposition.sparse_encode
- 可用于将信号转换为来自固定... 
 - 备注 - 有关示例,请参见 examples/linear_model/plot_lasso_lasso_lars_elasticnet_path.py。 - 为了避免不必要的内存复制,fit 方法的 X 参数应直接作为 Fortran 连续的 numpy 数组传递。 - 请注意,在某些情况下,Lars 求解器可能在实现此功能方面快得多。特别是,可以使用线性插值来检索 lars_path 输出值之间的模型系数。 - 示例 - 比较 lasso_path 和 lars_path 与插值 - >>> import numpy as np >>> from sklearn.linear_model import lasso_path >>> X = np.array([[1, 2, 3.1], [2.3, 5.4, 4.3]]).T >>> y = np.array([1, 2, 3.1]) >>> # Use lasso_path to compute a coefficient path >>> _, coef_path, _ = lasso_path(X, y, alphas=[5., 1., .5]) >>> print(coef_path) [[0. 0. 0.46874778] [0.2159048 0.4425765 0.23689075]] - >>> # Now use lars_path and 1D linear interpolation to compute the >>> # same path >>> from sklearn.linear_model import lars_path >>> alphas, active, coef_path_lars = lars_path(X, y, method='lasso') >>> from scipy import interpolate >>> coef_path_continuous = interpolate.interp1d(alphas[::-1], ... coef_path_lars[:, ::-1]) >>> print(coef_path_continuous([5., 1., .5])) [[0. 0. 0.46915237] [0.2159048 0.4425765 0.23668876]] 
 
    