MiniBatchDictionaryLearning#

class sklearn.decomposition.MiniBatchDictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, fit_algorithm='lars', n_jobs=None, batch_size=256, shuffle=True, dict_init=None, transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000, callback=None, tol=0.001, max_no_improvement=10)[source]#

小批量字典学习。

寻找一个字典(一组原子),该字典能够很好地稀疏编码拟合数据。

求解优化问题

(U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1
             (U,V)
             with || V_k ||_2 <= 1 for all  0 <= k < n_components

||.||_Fro 表示 Frobenius 范数,||.||_1,1 表示逐元素矩阵范数,它是矩阵中所有元素的绝对值之和。

用户指南中阅读更多内容。

参数:
n_componentsint, 默认为 None

要提取的字典元素的数量。

alphafloat, 默认为 1

稀疏度控制参数。

max_iterint, 默认为 1_000

在独立于任何早期停止准则启发式的情况下,在完整数据集上迭代的最大次数。

版本 1.1 新增。

fit_algorithm{‘lars’, ‘cd’}, 默认为 ‘lars’

使用的算法

  • 'lars': 使用最小角度回归方法解决 lasso 问题 (linear_model.lars_path)

  • 'cd': 使用坐标下降方法计算 Lasso 解 (linear_model.Lasso)。如果估计的组件是稀疏的,Lars 将更快。

n_jobsint, 默认为 None

要运行的并行作业数。None 表示 1,除非在 joblib.parallel_backend 上下文中。-1 表示使用所有处理器。有关更多详细信息,请参阅术语表

batch_sizeint, 默认为 256

每个小批量的样本数量。

1.3 版本中的更改: batch_size 的默认值在 1.3 版本中从 3 更改为 256。

shufflebool, 默认为 True

在形成批次之前是否打乱样本。

dict_init形状为 (n_components, n_features) 的 ndarray, 默认为 None

用于热启动场景的字典初始值。

transform_algorithm{‘lasso_lars’, ‘lasso_cd’, ‘lars’, ‘omp’, ‘threshold’}, 默认为 ‘omp’

用于转换数据的算法

  • 'lars': 使用最小角度回归方法 (linear_model.lars_path);

  • 'lasso_lars': 使用 Lars 计算 Lasso 解。

  • 'lasso_cd': 使用坐标下降方法计算 Lasso 解 (linear_model.Lasso)。如果估计的组件是稀疏的,'lasso_lars' 将更快。

  • 'omp': 使用正交匹配追踪来估计稀疏解。

  • 'threshold': 将投影 dictionary * X' 中所有小于 alpha 的系数压缩为零。

transform_n_nonzero_coefsint, 默认为 None

解的每一列中目标非零系数的数量。这仅由 algorithm='lars'algorithm='omp' 使用。如果为 None,则 transform_n_nonzero_coefs=int(n_features / 10)

transform_alphafloat, 默认为 None

如果 algorithm='lasso_lars'algorithm='lasso_cd'alpha 是应用于 L1 范数的惩罚项。如果 algorithm='threshold'alpha 是将系数压缩为零的阈值的绝对值。如果为 None,则默认为 alpha

1.2 版本中的更改: 当为 None 时,默认值从 1.0 更改为 alpha

verbosebool 或 int, 默认为 False

控制过程的详细程度。

split_signbool, 默认为 False

是否将稀疏特征向量拆分为其负部分和正部分的连接。这可以提高下游分类器的性能。

random_stateint, RandomState 实例或 None, 默认为 None

当未指定 dict_init 时用于初始化字典,当 shuffle 设置为 True 时用于随机打乱数据,以及更新字典。传入一个整数以在多次函数调用中获得可重现的结果。请参阅术语表

positive_codebool, 默认为 False

在查找代码时是否强制执行正性。

版本 0.20 新增。

positive_dictbool, 默认为 False

在查找字典时是否强制执行正性。

版本 0.20 新增。

transform_max_iterint, 默认为 1000

如果 algorithm='lasso_cd''lasso_lars',要执行的最大迭代次数。

版本 0.22 新增。

callback可调用对象, 默认为 None

在每次迭代结束时调用的可调用对象。

版本 1.1 新增。

tolfloat, 默认为 1e-3

根据字典在两个步骤之间差异的范数来控制早期停止。

要禁用基于字典变化的早期停止,请将 tol 设置为 0.0。

版本 1.1 新增。

max_no_improvementint, 默认为 10

根据连续未在平滑成本函数上产生改进的小批量数量来控制早期停止。

要禁用基于成本函数的收敛检测,请将 max_no_improvement 设置为 None。

版本 1.1 新增。

属性:
components_形状为 (n_components, n_features) 的 ndarray

从数据中提取的组件。

n_features_in_int

拟合过程中看到的特征数量。

版本 0.24 新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合过程中看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

版本 1.0 新增。

n_iter_int

在整个数据集上的迭代次数。

n_steps_int

处理的小批量数量。

版本 1.1 新增。

另请参阅

DictionaryLearning

查找稀疏编码数据的字典。

MiniBatchSparsePCA

小批量稀疏主成分分析。

SparseCoder

从固定的、预计算的字典中找到数据的稀疏表示。

SparsePCA

稀疏主成分分析。

参考文献

J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: Online dictionary learning for sparse coding (https://www.di.ens.fr/~fbach/mairal_icml09.pdf)

示例

>>> import numpy as np
>>> from sklearn.datasets import make_sparse_coded_signal
>>> from sklearn.decomposition import MiniBatchDictionaryLearning
>>> X, dictionary, code = make_sparse_coded_signal(
...     n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10,
...     random_state=42)
>>> dict_learner = MiniBatchDictionaryLearning(
...     n_components=15, batch_size=3, transform_algorithm='lasso_lars',
...     transform_alpha=0.1, max_iter=20, random_state=42)
>>> X_transformed = dict_learner.fit_transform(X)

我们可以检查 X_transformed 的稀疏度水平

>>> np.mean(X_transformed == 0) > 0.5
np.True_

我们可以比较稀疏编码信号的重构误差的平均欧几里得范数平方与原始信号的欧几里得范数平方的关系

>>> X_hat = X_transformed @ dict_learner.components_
>>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1))
np.float64(0.052)
fit(X, y=None)[source]#

根据 X 中的数据拟合模型。

参数:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本数量,n_features 是特征数量。

y忽略

未使用,按惯例为 API 一致性而存在。

返回:
self对象

返回实例本身。

fit_transform(X, y=None, **fit_params)[source]#

拟合数据,然后进行转换。

使用可选参数 fit_params 将转换器拟合到 Xy,并返回 X 的转换版本。

参数:
X形状为 (n_samples, n_features) 的类数组

输入样本。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组, 默认为 None

目标值(无监督转换时为 None)。

**fit_paramsdict

额外的拟合参数。

返回:
X_new形状为 (n_samples, n_features_new) 的 ndarray 数组

转换后的数组。

get_feature_names_out(input_features=None)[source]#

获取转换的输出特征名称。

输出特征名称将以小写类名作为前缀。例如,如果转换器输出 3 个特征,则输出特征名称为:["class_name0", "class_name1", "class_name2"]

参数:
input_features字符串类数组或 None, 默认为 None

仅用于根据 fit 中看到的名称验证特征名称。

返回:
feature_names_out字符串对象的 ndarray

转换后的特征名称。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查阅用户指南以了解路由机制的工作原理。

返回:
routingMetadataRequest

封装路由信息的 MetadataRequest

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deepbool, 默认为 True

如果为 True,将返回此估计器以及其中包含的作为估计器的子对象的参数。

返回:
paramsdict

参数名称与其值映射。

inverse_transform(X)[source]#

将数据转换回其原始空间。

参数:
X形状为 (n_samples, n_components) 的类数组

要转换回的数据。必须与用于训练模型的数据具有相同数量的组件。

返回:
X_original形状为 (n_samples, n_features) 的 ndarray

转换后的数据。

partial_fit(X, y=None)[source]#

使用 X 中的数据作为小批量更新模型。

参数:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本数量,n_features 是特征数量。

y忽略

未使用,按惯例为 API 一致性而存在。

返回:
self对象

返回实例本身。

set_output(*, transform=None)[source]#

设置输出容器。

有关如何使用 API 的示例,请参阅set_output API 简介

参数:
transform{“default”, “pandas”, “polars”}, 默认为 None

配置 transformfit_transform 的输出。

  • "default": 转换器的默认输出格式

  • "pandas": DataFrame 输出

  • "polars": Polars 输出

  • None: 转换配置未更改

1.4 版本新增: 添加了 "polars" 选项。

返回:
self估计器实例

估计器实例。

set_params(**params)[source]#

设置此估计器的参数。

该方法适用于简单的估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。

transform(X)[source]#

将数据编码为字典原子的稀疏组合。

编码方法由对象参数 transform_algorithm 决定。

参数:
X形状为 (n_samples, n_features) 的 ndarray

要转换的测试数据,必须具有与用于训练模型的数据相同的特征数量。

返回:
X_new形状为 (n_samples, n_components) 的 ndarray

转换后的数据。