字典学习#

class sklearn.decomposition.DictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, tol=1e-08, fit_algorithm='lars', transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, n_jobs=None, code_init=None, dict_init=None, callback=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000)[source]#

字典学习。

寻找一个字典(一组原子),该字典在稀疏编码拟合数据方面表现良好。

解决优化问题

(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1
            (U,V)
            with || V_k ||_2 <= 1 for all  0 <= k < n_components

||.||_Fro 代表弗罗贝尼乌斯范数,||.||_1,1 代表逐元素矩阵范数,它是矩阵中所有元素绝对值的总和。

用户指南中了解更多信息。

参数:
n_componentsint,默认为None

要提取的字典元素数量。如果为 None,则n_components设置为n_features

alphafloat,默认为1.0

稀疏性控制参数。

max_iterint,默认为1000

要执行的最大迭代次数。

tolfloat,默认为1e-8

数值误差的容忍度。

fit_algorithm{'lars', 'cd'},默认为'lars'
  • 'lars':使用最小角回归方法来解决套索问题(lars_path);

  • 'cd':使用坐标下降法来计算套索解(Lasso)。如果估计的成分是稀疏的,则 Lars 会更快。

0.17版本新增: cd 坐标下降法以提高速度。

transform_algorithm{'lasso_lars', 'lasso_cd', 'lars', 'omp', 'threshold'},默认为'omp'

用于转换数据的算法

  • 'lars':使用最小角回归法(lars_path);

  • 'lasso_lars':使用 Lars 计算套索解。

  • 'lasso_cd':使用坐标下降法计算套索解(Lasso)。如果估计的成分是稀疏的,则'lasso_lars'会更快。

  • 'omp':使用正交匹配追踪来估计稀疏解。

  • 'threshold':将投影dictionary * X'中所有小于 alpha 的系数压缩为零。

0.17版本新增: lasso_cd 坐标下降法以提高速度。

transform_n_nonzero_coefsint,默认为None

在解的每一列中目标非零系数的数量。这仅用于algorithm='lars'algorithm='omp'。如果为None,则transform_n_nonzero_coefs=int(n_features / 10)

transform_alphafloat,默认为None

如果algorithm='lasso_lars'algorithm='lasso_cd'alpha是应用于L1范数的惩罚。如果algorithm='threshold'alpha是系数将被压缩为零的阈值绝对值。如果为None,则默认为alpha

1.2版本变更: 当为 None 时,默认值从 1.0 更改为alpha

n_jobsint 或 None,默认为None

要运行的并行作业数。None表示 1,除非在joblib.parallel_backend 上下文中。-1表示使用所有处理器。有关更多详细信息,请参见词汇表

code_init形状为 (n_samples, n_components) 的 ndarray,默认为 None

代码的初始值,用于热重启。仅当 code_initdict_init 不为 None 时使用。

dict_init形状为 (n_components, n_features) 的 ndarray,默认为 None

字典的初始值,用于热重启。仅当 code_initdict_init 不为 None 时使用。

callback回调函数,默认为 None

每迭代五次调用一次的回调函数。

版本 1.3 中新增。

verbose布尔值,默认为 False

控制过程的详细程度。

split_sign布尔值,默认为 False

是否将稀疏特征向量拆分成其负数部分和正数部分的串联。这可以提高下游分类器的性能。

random_state整数、RandomState 实例或 None,默认为 None

当未指定 dict_init 时用于初始化字典,当 shuffle 设置为 True 时用于随机打乱数据,以及更新字典。传入整数可在多次函数调用中获得可复现的结果。参见 术语表

positive_code布尔值,默认为 False

查找代码时是否强制为正。

版本 0.20 中新增。

positive_dict布尔值,默认为 False

查找字典时是否强制为正。

版本 0.20 中新增。

transform_max_iter整数,默认为 1000

如果 algorithm='lasso_cd''lasso_lars',则执行的最大迭代次数。

版本 0.22 中新增。

属性:
components_形状为 (n_components, n_features) 的 ndarray

从数据中提取的字典原子

error_数组

每次迭代的误差向量

n_features_in_整数

拟合期间看到的特征数量。

版本 0.24 中新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的特征名称全部为字符串时才定义。

版本 1.0 中新增。

n_iter_整数

运行的迭代次数。

另请参见

MiniBatchDictionaryLearning

字典学习算法更快但不太精确的版本。

MiniBatchSparsePCA

小批量稀疏主成分分析。

SparseCoder

从固定、预计算的字典中查找数据的稀疏表示。

SparsePCA

稀疏主成分分析。

参考文献

J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: 用于稀疏编码的在线字典学习 (https://www.di.ens.fr/~fbach/mairal_icml09.pdf)

示例

>>> import numpy as np
>>> from sklearn.datasets import make_sparse_coded_signal
>>> from sklearn.decomposition import DictionaryLearning
>>> X, dictionary, code = make_sparse_coded_signal(
...     n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10,
...     random_state=42,
... )
>>> dict_learner = DictionaryLearning(
...     n_components=15, transform_algorithm='lasso_lars', transform_alpha=0.1,
...     random_state=42,
... )
>>> X_transformed = dict_learner.fit(X).transform(X)

我们可以检查 X_transformed 的稀疏程度

>>> np.mean(X_transformed == 0)
np.float64(0.52...)

我们可以比较稀疏编码信号的重建误差的平均平方欧几里德范数与原始信号的平方欧几里德范数

>>> X_hat = X_transformed @ dict_learner.components_
>>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1))
np.float64(0.05...)
fit(X, y=None)[source]#

根据 X 中的数据拟合模型。

参数:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本数,n_features 是特征数。

y忽略

未使用,出于 API 一致性约定而存在。

返回:
self对象

返回实例本身。

fit_transform(X, y=None)[source]#

根据 X 中的数据拟合模型并返回转换后的数据。

参数:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本数,n_features 是特征数。

y忽略

未使用,出于 API 一致性约定而存在。

返回:
V形状为 (n_samples, n_components) 的 ndarray

转换后的数据。

get_feature_names_out(input_features=None)[source]#

获取转换后的输出特征名称。

输出的特征名称将以小写的类名作为前缀。例如,如果转换器输出 3 个特征,则输出的特征名称为: ["class_name0", "class_name1", "class_name2"]

参数:
input_features字符串类数组或 None,默认为 None

仅用于使用在 fit 中看到的名称验证特征名称。

返回:
feature_names_out字符串对象的 ndarray

转换后的特征名称。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看 用户指南,了解路由机制的工作原理。

返回:
routingMetadataRequest

一个 MetadataRequest 封装了路由信息。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔值,默认为 True

如果为 True,则将返回此估计器和包含的子对象(它们是估计器)的参数。

返回:
params字典

参数名称与其值的映射。

set_output(*, transform=None)[source]#

设置输出容器。

参见 Introducing the set_output API 了解如何使用该API的示例。

参数:
transform{“default”, “pandas”, “polars”}, default=None

配置transformfit_transform 的输出。

  • "default": 变换器的默认输出格式

  • "pandas": DataFrame 输出

  • "polars": Polars 输出

  • None: 变换配置保持不变

版本 1.4 中新增: "polars" 选项已添加。

返回:
self估计器实例

估计器实例。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。

transform(X)[source]#

将数据编码为字典原子的稀疏组合。

编码方法由对象参数transform_algorithm确定。

参数:
X形状为 (n_samples, n_features) 的ndarray

要转换的测试数据,必须与用于训练模型的数据具有相同的特征数量。

返回:
X_new形状为 (n_samples, n_components) 的ndarray

转换后的数据。