MultiTaskLasso#

class sklearn.linear_model.MultiTaskLasso(alpha=1.0, *, fit_intercept=True, copy_X=True, max_iter=1000, tol=0.0001, warm_start=False, random_state=None, selection='cyclic')[source]#

Multi-task Lasso 模型,使用 L1/L2 混合范数作为正则化项进行训练。

Lasso 的优化目标是

(1 / (2 * n_samples)) * ||Y - XW||^2_Fro + alpha * ||W||_21

其中

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

即每行的范数之和。

详情请参阅用户指南

参数:
alpha浮点型, 默认值=1.0

L1/L2 项的乘数常数。默认为 1.0。

fit_intercept布尔型, 默认值=True

是否为该模型计算截距。如果设置为 False,则计算中不使用截距(即数据应已中心化)。

copy_X布尔型, 默认值=True

如果为 True,X 将被复制;否则,它可能会被覆盖。

max_iter整型, 默认值=1000

最大迭代次数。

tol浮点型, 默认值=1e-4

优化的容差:如果更新小于 tol,优化代码将检查对偶间隙的最优性,并继续直到它小于 tol

warm_start布尔型, 默认值=False

当设置为 True 时,重用上一次调用 fit 的解作为初始化,否则,擦除之前的解。参见词汇表

random_state整型, RandomState 实例, 默认值=None

选择要更新的随机特征的伪随机数生成器的种子。当 selection == ‘random’ 时使用。传入一个整数可在多次函数调用中获得可复现的输出。参见词汇表

selection{'cyclic', 'random'}, 默认值='cyclic'

如果设置为 'random',则每次迭代更新一个随机系数,而不是默认按顺序循环遍历特征。这(设置为 'random')通常会导致显著更快的收敛,特别是当 tol 高于 1e-4 时。

属性:
coef_形状为 (n_targets, n_features) 的 ndarray

参数向量(成本函数公式中的 W)。请注意,coef_ 存储的是 W 的转置,即 W.T

intercept_形状为 (n_targets,) 的 ndarray

决策函数中的独立项。

n_iter_整型

坐标下降求解器达到指定容差的迭代次数。

dual_gap_形状为 (n_alphas,) 的 ndarray

每次 alpha 优化结束时的对偶间隙。

eps_浮点型

按目标 y 的方差缩放的容差。

sparse_coef_形状为 (n_features,) 或 (n_targets, n_features) 的稀疏矩阵

拟合后的 coef_ 的稀疏表示。

n_features_in_整型

拟合期间看到的特征数量。

0.24 版本新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

1.0 版本新增。

另请参见

Lasso

使用 L1 惩罚作为正则化器训练的线性模型(也称为 Lasso)。

MultiTaskLassoCV

带有内置交叉验证的多任务 L1 正则化线性模型。

MultiTaskElasticNetCV

带有内置交叉验证的多任务 L1/L2 ElasticNet。

注意

用于拟合模型的算法是坐标下降。

为避免不必要的内存复制,fit 方法的 X 和 y 参数应直接作为 Fortran-contiguous numpy 数组传入。

示例

>>> from sklearn import linear_model
>>> clf = linear_model.MultiTaskLasso(alpha=0.1)
>>> clf.fit([[0, 1], [1, 2], [2, 4]], [[0, 0], [1, 1], [2, 3]])
MultiTaskLasso(alpha=0.1)
>>> print(clf.coef_)
[[0.         0.60809415]
[0.         0.94592424]]
>>> print(clf.intercept_)
[-0.41888636 -0.87382323]
fit(X, y)[source]#

使用坐标下降拟合 MultiTaskElasticNet 模型。

参数:
X形状为 (n_samples, n_features) 的 ndarray

数据。

y形状为 (n_samples, n_targets) 的 ndarray

目标。如有必要,将转换为 X 的 dtype。

返回:
self对象

拟合的估计器。

注意

坐标下降是一种一次处理数据一列的算法,因此如有必要,它会自动将 X 输入转换为 Fortran-contiguous numpy 数组。

为避免内存重新分配,建议直接使用该格式在内存中分配初始数据。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查阅用户指南了解路由机制的工作原理。

返回:
routingMetadataRequest

封装路由信息的 MetadataRequest 对象。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔型, 默认值=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
params字典

参数名称映射到其值。

static path(X, y, *, l1_ratio=0.5, eps=0.001, n_alphas=100, alphas=None, precompute='auto', Xy=None, copy_X=True, coef_init=None, verbose=False, return_n_iter=False, positive=False, check_input=True, **params)[source]#

使用坐标下降计算弹性网络路径。

弹性网络优化函数因单输出和多输出任务而异。

对于单输出任务,它是

1 / (2 * n_samples) * ||y - Xw||^2_2
+ alpha * l1_ratio * ||w||_1
+ 0.5 * alpha * (1 - l1_ratio) * ||w||^2_2

对于多输出任务,它是

(1 / (2 * n_samples)) * ||Y - XW||_Fro^2
+ alpha * l1_ratio * ||W||_21
+ 0.5 * alpha * (1 - l1_ratio) * ||W||_Fro^2

其中

||W||_21 = \sum_i \sqrt{\sum_j w_{ij}^2}

即每行的范数之和。

详情请参阅用户指南

参数:
X{array-like, 稀疏矩阵} 形状为 (n_samples, n_features)

训练数据。直接作为 Fortran-contiguous 数据传入以避免不必要的内存复制。如果 y 是单输出,则 X 可以是稀疏的。

y{array-like, 稀疏矩阵} 形状为 (n_samples,) 或 (n_samples, n_targets)

目标值。

l1_ratio浮点型, 默认值=0.5

传入弹性网络(l1 和 l2 惩罚之间的缩放)的 0 到 1 之间的数字。l1_ratio=1 对应于 Lasso。

eps浮点型, 默认值=1e-3

路径的长度。eps=1e-3 意味着 alpha_min / alpha_max = 1e-3

n_alphas整型, 默认值=100

正则化路径上的 alpha 数量。

alphasarray-like, 默认值=None

计算模型的 alpha 列表。如果为 None,则自动设置 alpha。

precompute'auto', 布尔型或形状为 (n_features, n_features) 的 array-like, 默认值='auto'

是否使用预计算的 Gram 矩阵来加快计算速度。如果设置为 'auto',则由我们决定。Gram 矩阵也可以作为参数传入。

Xy形状为 (n_features,) 或 (n_features, n_targets) 的 array-like, 默认值=None

Xy = np.dot(X.T, y) 可以预计算。仅当 Gram 矩阵预计算时才有用。

copy_X布尔型, 默认值=True

如果为 True,X 将被复制;否则,它可能会被覆盖。

coef_init形状为 (n_features, ) 的 array-like, 默认值=None

系数的初始值。

verbose布尔型或整型, 默认值=False

详细程度。

return_n_iter布尔型, 默认值=False

是否返回迭代次数。

positive布尔型, 默认值=False

如果设置为 True,则强制系数为正。(仅当 y.ndim == 1 时允许)。

check_input布尔型, 默认值=True

如果设置为 False,则跳过输入验证检查(包括提供的 Gram 矩阵)。假设它们由调用者处理。

**paramskwargs

传递给坐标下降求解器的关键字参数。

返回:
alphas形状为 (n_alphas,) 的 ndarray

计算模型的路径上的 alpha。

coefs形状为 (n_features, n_alphas) 或 (n_targets, n_features, n_alphas) 的 ndarray

路径上的系数。

dual_gaps形状为 (n_alphas,) 的 ndarray

每次 alpha 优化结束时的对偶间隙。

n_iters整型列表

坐标下降优化器为每个 alpha 达到指定容差所花费的迭代次数。(当 return_n_iter 设置为 True 时返回)。

另请参见

MultiTaskElasticNet

Multi-task ElasticNet 模型,使用 L1/L2 混合范数作为正则化器进行训练。

MultiTaskElasticNetCV

带有内置交叉验证的多任务 L1/L2 ElasticNet。

ElasticNet

具有组合 L1 和 L2 先验作为正则化器的线性回归。

ElasticNetCV

通过正则化路径进行迭代拟合的弹性网络模型。

注意

例如,请参见examples/linear_model/plot_lasso_lasso_lars_elasticnet_path.py

示例

>>> from sklearn.linear_model import enet_path
>>> from sklearn.datasets import make_regression
>>> X, y, true_coef = make_regression(
...    n_samples=100, n_features=5, n_informative=2, coef=True, random_state=0
... )
>>> true_coef
array([ 0.        ,  0.        ,  0.        , 97.9, 45.7])
>>> alphas, estimated_coef, _ = enet_path(X, y, n_alphas=3)
>>> alphas.shape
(3,)
>>> estimated_coef
 array([[ 0.,  0.787,  0.568],
        [ 0.,  1.120,  0.620],
        [-0., -2.129, -1.128],
        [ 0., 23.046, 88.939],
        [ 0., 10.637, 41.566]])
predict(X)[source]#

使用线性模型进行预测。

参数:
Xarray-like 或稀疏矩阵, 形状 (n_samples, n_features)

样本。

返回:
C数组, 形状 (n_samples,)

返回预测值。

score(X, y, sample_weight=None)[source]#

返回测试数据上的决定系数

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳得分是 1.0,也可能为负(因为模型可能任意地差)。一个总是预测 y 期望值而不考虑输入特征的常数模型将得到 0.0 的 \(R^2\) 分数。

参数:
X形状为 (n_samples, n_features) 的 array-like

测试样本。对于某些估计器,这可能是一个预计算的核矩阵或一个通用对象列表,形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是估计器拟合中使用的样本数量。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like

X 的真实值。

sample_weight形状为 (n_samples,) 的 array-like, 默认值=None

样本权重。

返回:
score浮点型

self.predict(X) 相对于 y\(R^2\)

注意

在调用回归器上的 score 时使用的 \(R^2\) 分数,从 0.23 版本开始使用 multioutput='uniform_average',以与 r2_score 的默认值保持一致。这影响了所有多输出回归器(MultiOutputRegressor 除外)的 score 方法。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') MultiTaskLasso[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅当 enable_metadata_routing=True 时才相关(参见 sklearn.set_config)。请参阅用户指南了解路由机制的工作原理。

每个参数的选项为

  • True: 请求元数据,如果提供则传递给 fit。如果未提供元数据,则忽略该请求。

  • False: 不请求元数据,元估计器不会将其传递给 fit

  • None: 不请求元数据,如果用户提供,元估计器将引发错误。

  • str: 元数据应使用此给定别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用时。否则无效。

参数:
sample_weightstr, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

fit 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

该方法适用于简单估计器以及嵌套对象(如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') MultiTaskLasso[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅当 enable_metadata_routing=True 时才相关(参见 sklearn.set_config)。请参阅用户指南了解路由机制的工作原理。

每个参数的选项为

  • True: 请求元数据,如果提供则传递给 score。如果未提供元数据,则忽略该请求。

  • False: 不请求元数据,元估计器不会将其传递给 score

  • None: 不请求元数据,如果用户提供,元估计器将引发错误。

  • str: 元数据应使用此给定别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用时。否则无效。

参数:
sample_weightstr, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

score 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。