字典学习#
- class sklearn.decomposition.DictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, tol=1e-08, fit_algorithm='lars', transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, n_jobs=None, code_init=None, dict_init=None, callback=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000)[source]#
字典学习。
寻找一个字典(一组原子),该字典在稀疏编码拟合数据方面表现良好。
解决优化问题
(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1 (U,V) with || V_k ||_2 <= 1 for all 0 <= k < n_components
||.||_Fro 代表弗罗贝尼乌斯范数,||.||_1,1 代表逐元素矩阵范数,它是矩阵中所有元素绝对值的总和。
在用户指南中了解更多信息。
- 参数:
- n_componentsint,默认为None
要提取的字典元素数量。如果为 None,则
n_components
设置为n_features
。- alphafloat,默认为1.0
稀疏性控制参数。
- max_iterint,默认为1000
要执行的最大迭代次数。
- tolfloat,默认为1e-8
数值误差的容忍度。
- fit_algorithm{'lars', 'cd'},默认为'lars'
-
0.17版本新增: cd 坐标下降法以提高速度。
- transform_algorithm{'lasso_lars', 'lasso_cd', 'lars', 'omp', 'threshold'},默认为'omp'
用于转换数据的算法
'lars'
:使用最小角回归法(lars_path
);'lasso_lars'
:使用 Lars 计算套索解。'lasso_cd'
:使用坐标下降法计算套索解(Lasso
)。如果估计的成分是稀疏的,则'lasso_lars'
会更快。'omp'
:使用正交匹配追踪来估计稀疏解。'threshold'
:将投影dictionary * X'
中所有小于 alpha 的系数压缩为零。
0.17版本新增: lasso_cd 坐标下降法以提高速度。
- transform_n_nonzero_coefsint,默认为None
在解的每一列中目标非零系数的数量。这仅用于
algorithm='lars'
和algorithm='omp'
。如果为None
,则transform_n_nonzero_coefs=int(n_features / 10)
。- transform_alphafloat,默认为None
如果
algorithm='lasso_lars'
或algorithm='lasso_cd'
,alpha
是应用于L1范数的惩罚。如果algorithm='threshold'
,alpha
是系数将被压缩为零的阈值绝对值。如果为None
,则默认为alpha
。1.2版本变更: 当为 None 时,默认值从 1.0 更改为
alpha
。- n_jobsint 或 None,默认为None
要运行的并行作业数。
None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有处理器。有关更多详细信息,请参见词汇表。- code_init形状为 (n_samples, n_components) 的 ndarray,默认为 None
代码的初始值,用于热重启。仅当
code_init
和dict_init
不为 None 时使用。- dict_init形状为 (n_components, n_features) 的 ndarray,默认为 None
字典的初始值,用于热重启。仅当
code_init
和dict_init
不为 None 时使用。- callback回调函数,默认为 None
每迭代五次调用一次的回调函数。
版本 1.3 中新增。
- verbose布尔值,默认为 False
控制过程的详细程度。
- split_sign布尔值,默认为 False
是否将稀疏特征向量拆分成其负数部分和正数部分的串联。这可以提高下游分类器的性能。
- random_state整数、RandomState 实例或 None,默认为 None
当未指定
dict_init
时用于初始化字典,当shuffle
设置为True
时用于随机打乱数据,以及更新字典。传入整数可在多次函数调用中获得可复现的结果。参见 术语表。- positive_code布尔值,默认为 False
查找代码时是否强制为正。
版本 0.20 中新增。
- positive_dict布尔值,默认为 False
查找字典时是否强制为正。
版本 0.20 中新增。
- transform_max_iter整数,默认为 1000
如果
algorithm='lasso_cd'
或'lasso_lars'
,则执行的最大迭代次数。版本 0.22 中新增。
- 属性:
另请参见
MiniBatchDictionaryLearning
字典学习算法更快但不太精确的版本。
MiniBatchSparsePCA
小批量稀疏主成分分析。
SparseCoder
从固定、预计算的字典中查找数据的稀疏表示。
SparsePCA
稀疏主成分分析。
参考文献
J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: 用于稀疏编码的在线字典学习 (https://www.di.ens.fr/~fbach/mairal_icml09.pdf)
示例
>>> import numpy as np >>> from sklearn.datasets import make_sparse_coded_signal >>> from sklearn.decomposition import DictionaryLearning >>> X, dictionary, code = make_sparse_coded_signal( ... n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10, ... random_state=42, ... ) >>> dict_learner = DictionaryLearning( ... n_components=15, transform_algorithm='lasso_lars', transform_alpha=0.1, ... random_state=42, ... ) >>> X_transformed = dict_learner.fit(X).transform(X)
我们可以检查
X_transformed
的稀疏程度>>> np.mean(X_transformed == 0) np.float64(0.52...)
我们可以比较稀疏编码信号的重建误差的平均平方欧几里德范数与原始信号的平方欧几里德范数
>>> X_hat = X_transformed @ dict_learner.components_ >>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1)) np.float64(0.05...)
- fit(X, y=None)[source]#
根据 X 中的数据拟合模型。
- 参数:
- X形状为 (n_samples, n_features) 的类数组
训练向量,其中
n_samples
是样本数,n_features
是特征数。- y忽略
未使用,出于 API 一致性约定而存在。
- 返回:
- self对象
返回实例本身。
- fit_transform(X, y=None)[source]#
根据 X 中的数据拟合模型并返回转换后的数据。
- 参数:
- X形状为 (n_samples, n_features) 的类数组
训练向量,其中
n_samples
是样本数,n_features
是特征数。- y忽略
未使用,出于 API 一致性约定而存在。
- 返回:
- V形状为 (n_samples, n_components) 的 ndarray
转换后的数据。
- get_feature_names_out(input_features=None)[source]#
获取转换后的输出特征名称。
输出的特征名称将以小写的类名作为前缀。例如,如果转换器输出 3 个特征,则输出的特征名称为:
["class_name0", "class_name1", "class_name2"]
。- 参数:
- input_features字符串类数组或 None,默认为 None
仅用于使用在
fit
中看到的名称验证特征名称。
- 返回:
- feature_names_out字符串对象的 ndarray
转换后的特征名称。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看 用户指南,了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个
MetadataRequest
封装了路由信息。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认为 True
如果为 True,则将返回此估计器和包含的子对象(它们是估计器)的参数。
- 返回:
- params字典
参数名称与其值的映射。
- set_output(*, transform=None)[source]#
设置输出容器。
参见 Introducing the set_output API 了解如何使用该API的示例。
- 参数:
- transform{“default”, “pandas”, “polars”}, default=None
配置
transform
和fit_transform
的输出。"default"
: 变换器的默认输出格式"pandas"
: DataFrame 输出"polars"
: Polars 输出None
: 变换配置保持不变
版本 1.4 中新增:
"polars"
选项已添加。
- 返回:
- self估计器实例
估计器实例。