小批量字典学习#
- class sklearn.decomposition.MiniBatchDictionaryLearning(n_components=None, *, alpha=1, max_iter=1000, fit_algorithm='lars', n_jobs=None, batch_size=256, shuffle=True, dict_init=None, transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, verbose=False, split_sign=False, random_state=None, positive_code=False, positive_dict=False, transform_max_iter=1000, callback=None, tol=0.001, max_no_improvement=10)[source]#
- 小批量字典学习。 - 寻找一个字典(一组原子),该字典在稀疏编码拟合数据方面表现良好。 - 求解优化问题 - (U^*,V^*) = argmin 0.5 || X - U V ||_Fro^2 + alpha * || U ||_1,1 (U,V) with || V_k ||_2 <= 1 for all 0 <= k < n_components - ||.||_Fro 表示弗罗贝尼乌斯范数,||.||_1,1 表示逐项矩阵范数,即矩阵中所有项的绝对值之和。 - 在用户指南中了解更多信息。 - 参数:
- n_componentsint,默认为None
- 要提取的字典元素数量。 
- alphafloat,默认为1
- 稀疏性控制参数。 
- max_iterint,默认为1000
- 在停止之前遍历完整数据集的最大迭代次数,与任何提前停止标准启发式算法无关。 - 1.1 版中新增。 
- fit_algorithm{'lars', 'cd'},默认为'lars'
- 使用的算法 - 'lars':使用最小角回归方法求解套索问题(- linear_model.lars_path)
- 'cd':使用坐标下降法计算套索解(- linear_model.Lasso)。如果估计的成分是稀疏的,则 Lars 会更快。
 
- n_jobsint,默认为None
- 要运行的并行作业数。 - None表示 1,除非在- joblib.parallel_backend上下文中。- -1表示使用所有处理器。有关更多详细信息,请参阅词汇表。
- batch_sizeint,默认为256
- 每个小批次中的样本数。 - 1.3 版中的更改: 1.3 版中 - batch_size的默认值从 3 更改为 256。
- shufflebool,默认为True
- 是否在形成批次之前打乱样本。 
- dict_init形状为 (n_components, n_features) 的 ndarray,默认为 None
- 用于热重启场景的字典的初始值。 
- transform_algorithm{'lasso_lars', 'lasso_cd', 'lars', 'omp', 'threshold'},默认为'omp'
- 用于转换数据的算法 - 'lars':使用最小角回归方法(- linear_model.lars_path);
- 'lasso_lars':使用 Lars 计算套索解。
- 'lasso_cd':使用坐标下降法计算套索解(- linear_model.Lasso)。如果估计的成分是稀疏的,则- 'lasso_lars'会更快。
- 'omp':使用正交匹配追踪法来估计稀疏解。
- 'threshold':将投影- dictionary * X'中所有小于 alpha 的系数压缩为零。
 
- transform_n_nonzero_coefsint,默认为None
- 在解的每一列中要定位的非零系数数。这仅由 - algorithm='lars'和- algorithm='omp'使用。如果为- None,则- transform_n_nonzero_coefs=int(n_features / 10)。
- transform_alphafloat,默认为None
- 如果 - algorithm='lasso_lars'或- algorithm='lasso_cd',则- alpha是应用于 L1 范数的惩罚。如果- algorithm='threshold',则- alpha是系数将被压缩为零的阈值绝对值。如果为- None,则默认为- alpha。- 1.2 版中的更改: 如果为 None,则默认值从 1.0 更改为 - alpha。
- verbosebool 或 int,默认为 False
- 用于控制过程的详细程度。 
- split_signbool,默认为 False
- 是否将稀疏特征向量拆分为其负部分和正部分的串联。这可以提高下游分类器的性能。 
- random_stateint、RandomState 实例或 None,默认为 None
- 当未指定 - dict_init时用于初始化字典,当- shuffle设置为- True时用于随机打乱数据,以及更新字典。为了在多次函数调用中获得可重复的结果,请传入一个整数。参见术语表。
- positive_codebool,默认为 False
- 在查找代码时是否强制执行正值。 - 在 0.20 版本中添加。 
- positive_dictbool,默认为 False
- 在查找字典时是否强制执行正值。 - 在 0.20 版本中添加。 
- transform_max_iterint,默认为 1000
- 如果 - algorithm='lasso_cd'或- 'lasso_lars',则执行的最大迭代次数。- 在 0.22 版本中添加。 
- callbackcallable,默认为 None
- 在每次迭代结束时调用的可调用对象。 - 1.1 版中新增。 
- tolfloat,默认为 1e-3
- 根据两次迭代之间字典差异的范数控制提前停止。 - 要禁用基于字典变化的提前停止,请将 - tol设置为 0.0。- 1.1 版中新增。 
- max_no_improvementint,默认为 10
- 根据未在平滑成本函数上产生改进的连续小批量数量来控制提前停止。 - 要禁用基于成本函数的收敛检测,请将 - max_no_improvement设置为 None。- 1.1 版中新增。 
 
- 属性:
 - 另请参见 - DictionaryLearning
- 查找稀疏编码数据的字典。 
- MiniBatchSparsePCA
- 小批量稀疏主成分分析。 
- SparseCoder
- 从固定的、预先计算的字典中查找数据的稀疏表示。 
- SparsePCA
- 稀疏主成分分析。 
 - 参考文献 - J. Mairal, F. Bach, J. Ponce, G. Sapiro, 2009: 用于稀疏编码的在线字典学习 (https://www.di.ens.fr/~fbach/mairal_icml09.pdf) - 示例 - >>> import numpy as np >>> from sklearn.datasets import make_sparse_coded_signal >>> from sklearn.decomposition import MiniBatchDictionaryLearning >>> X, dictionary, code = make_sparse_coded_signal( ... n_samples=30, n_components=15, n_features=20, n_nonzero_coefs=10, ... random_state=42) >>> dict_learner = MiniBatchDictionaryLearning( ... n_components=15, batch_size=3, transform_algorithm='lasso_lars', ... transform_alpha=0.1, max_iter=20, random_state=42) >>> X_transformed = dict_learner.fit_transform(X) - 我们可以检查 - X_transformed的稀疏程度- >>> np.mean(X_transformed == 0) > 0.5 np.True_ - 我们可以比较稀疏编码信号的重建误差的平均平方欧几里德范数与原始信号的平方欧几里德范数 - >>> X_hat = X_transformed @ dict_learner.components_ >>> np.mean(np.sum((X_hat - X) ** 2, axis=1) / np.sum(X ** 2, axis=1)) np.float64(0.052...) - fit(X, y=None)[source]#
- 根据 X 中的数据拟合模型。 - 参数:
- X形状为 (n_samples, n_features) 的类数组
- 训练向量,其中 - n_samples是样本数,- n_features是特征数。
- y忽略
- 未使用,出于 API 一致性约定而存在。 
 
- 返回值:
- self对象
- 返回实例本身。 
 
 
 - fit_transform(X, y=None, **fit_params)[source]#
- 拟合数据,然后转换它。 - 使用可选参数 - fit_params将转换器拟合到- X和- y,并返回- X的转换版本。- 参数:
- X形状为 (n_samples, n_features) 的类数组
- 输入样本。 
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组,默认为 None
- 目标值(对于无监督转换,则为 None)。 
- **fit_paramsdict
- 其他拟合参数。 
 
- 返回值:
- X_new形状为 (n_samples, n_features_new) 的 ndarray 数组
- 转换后的数组。 
 
 
 - get_feature_names_out(input_features=None)[source]#
- 获取转换的输出特征名称。 - 输出特征名称将以小写的类名作为前缀。例如,如果转换器输出 3 个特征,则输出特征名称为: - ["class_name0", "class_name1", "class_name2"]。- 参数:
- input_featuresstr 的类数组或 None,默认为 None
- 仅用于使用在 - fit中看到的名称验证特征名称。
 
- 返回值:
- feature_names_outstr 对象的 ndarray
- 转换后的特征名称。 
 
 
 - get_metadata_routing()[source]#
- 获取此对象的元数据路由。 - 请查看用户指南,了解路由机制的工作原理。 - 返回值:
- routingMetadataRequest
- 一个 - MetadataRequest,封装了路由信息。
 
 
 - get_params(deep=True)[source]#
- 获取此估计器的参数。 - 参数:
- deepbool, default=True
- 如果为 True,则将返回此估计器和包含的子对象(这些子对象也是估计器)的参数。 
 
- 返回值:
- paramsdict
- 参数名称与其值的映射。 
 
 
 - partial_fit(X, y=None)[source]#
- 使用X中的数据作为小批量更新模型。 - 参数:
- X形状为 (n_samples, n_features) 的类数组
- 训练向量,其中 - n_samples是样本数,- n_features是特征数。
- y忽略
- 未使用,出于 API 一致性约定而存在。 
 
- 返回值:
- self对象
- 返回实例本身。 
 
 
 - set_output(*, transform=None)[source]#
- 设置输出容器。 - 参见 Introducing the set_output API,了解如何使用此API的示例。 - 参数:
- transform{“default”, “pandas”, “polars”}, default=None
- 配置 - transform和- fit_transform的输出。- "default": 变换器的默认输出格式
- "pandas": DataFrame 输出
- "polars": Polars 输出
- None: 变换配置不变
 - 版本 1.4 中新增: - "polars"选项已添加。
 
- 返回值:
- selfestimator instance
- 估计器实例。 
 
 
 
 
     
