SparseCoder#
- class sklearn.decomposition.SparseCoder(dictionary, *, transform_algorithm='omp', transform_n_nonzero_coefs=None, transform_alpha=None, split_sign=False, n_jobs=None, positive_code=False, transform_max_iter=1000)[source]#
稀疏编码。
根据固定的、预先计算的字典查找数据的稀疏表示。
结果的每一行都是稀疏编码问题的解。目标是找到一个稀疏数组
code
,使得X ~= code * dictionary
在用户指南中阅读更多内容。
- 参数:
- dictionary形状为 (n_components, n_features) 的 ndarray
用于稀疏编码的字典原子。假设行已归一化为单位范数。
- transform_algorithm{‘lasso_lars’, ‘lasso_cd’, ‘lars’, ‘omp’, ‘threshold’},默认值='omp'
用于转换数据的算法
'lars'
: 使用最小角回归方法 (linear_model.lars_path
);'lasso_lars'
: 使用 Lars 计算 Lasso 解;'lasso_cd'
: 使用坐标下降法计算 Lasso 解 (linear_model.Lasso)。如果估计的组件是稀疏的,'lasso_lars'
会更快;'omp'
: 使用正交匹配追踪估计稀疏解;'threshold'
: 将投影dictionary * X'
中小于 alpha 的所有系数压缩为零。
- transform_n_nonzero_coefsint, 默认值=None
解的每一列中目标非零系数的数量。这仅用于
algorithm='lars'
和algorithm='omp'
,并且在omp
情况下会被alpha
覆盖。如果为None
,则transform_n_nonzero_coefs=int(n_features / 10)
。- transform_alphafloat, 默认值=None
如果
algorithm='lasso_lars'
或algorithm='lasso_cd'
,alpha
是应用于 L1 范数的惩罚。如果algorithm='threshold'
,alpha
是系数将被压缩为零的绝对阈值。如果algorithm='omp'
,alpha
是容差参数:目标重建误差的值。在这种情况下,它会覆盖n_nonzero_coefs
。如果为None
,则默认为 1。- split_signbool, 默认值=False
是否将稀疏特征向量拆分为其负部分和正部分的连接。这可以提高下游分类器的性能。
- n_jobsint, 默认值=None
并行运行的作业数量。
None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有处理器。有关更多详细信息,请参阅词汇表。- positive_codebool, 默认值=False
在查找代码时是否强制为正。
0.20 版本新增。
- transform_max_iterint, 默认值=1000
如果
algorithm='lasso_cd'
或lasso_lars
,则执行的最大迭代次数。0.22 版本新增。
- 属性:
n_components_
int原子数量。
n_features_in_
intfit
期间看到的特征数量。- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray fit 期间看到的特征名称。仅当
X
的特征名称全部为字符串时才定义。1.0 版本新增。
另请参阅
DictionaryLearning
找到一个稀疏编码数据的字典。
MiniBatchDictionaryLearning
字典学习算法的一个更快、精度较低的版本。
MiniBatchSparsePCA
小批量稀疏主成分分析。
SparsePCA
稀疏主成分分析。
sparse_encode
稀疏编码,其中结果的每一行都是稀疏编码问题的解。
示例
>>> import numpy as np >>> from sklearn.decomposition import SparseCoder >>> X = np.array([[-1, -1, -1], [0, 0, 3]]) >>> dictionary = np.array( ... [[0, 1, 0], ... [-1, -1, 2], ... [1, 1, 1], ... [0, 1, 1], ... [0, 2, 1]], ... dtype=np.float64 ... ) >>> coder = SparseCoder( ... dictionary=dictionary, transform_algorithm='lasso_lars', ... transform_alpha=1e-10, ... ) >>> coder.transform(X) array([[ 0., 0., -1., 0., 0.], [ 0., 1., 1., 0., 0.]])
- fit(X, y=None)[source]#
不做任何操作并返回未更改的估计器。
此方法仅用于实现常规 API,从而使其在管道中工作。
- 参数:
- X忽略
未使用,为 API 一致性而存在。
- y忽略
未使用,为 API 一致性而存在。
- 返回:
- self对象
返回实例本身。
- fit_transform(X, y=None, **fit_params)[source]#
拟合数据,然后转换数据。
使用可选参数
fit_params
将转换器拟合到X
和y
,并返回X
的转换版本。- 参数:
- X形状为 (n_samples, n_features) 的类数组
输入样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组,默认值=None
目标值(对于无监督转换,为 None)。
- **fit_paramsdict
其他拟合参数。
- 返回:
- X_new形状为 (n_samples, n_features_new) 的 ndarray 数组
转换后的数组。
- get_feature_names_out(input_features=None)[source]#
获取转换的输出特征名称。
输出特征名称将以小写类名作为前缀。例如,如果转换器输出 3 个特征,则输出特征名称为:
["class_name0", "class_name1", "class_name2"]
。- 参数:
- input_featuresstr 的类数组或 None, 默认值=None
仅用于根据
fit
中看到的名称验证特征名称。
- 返回:
- feature_names_outstr 对象的 ndarray
转换后的特征名称。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看用户指南,了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个封装路由信息的
MetadataRequest
。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- 如果为 True,将返回此估计器及其包含的子对象(如果它们是估计器)的参数。
deepbool, 默认值=True
- 返回:
- 如果为 True,将返回此估计器及其包含的子对象(如果它们是估计器)的参数。
paramsdict
- 参数名称与其值的映射。
-
- 参数:
- 将数据转换回其原始空间。
X形状为 (n_samples, n_components) 的类数组
- 返回:
- 要转换回的数据。必须与用于训练模型的组件数量相同。
X_original形状为 (n_samples, n_features) 的 ndarray
- 转换后的数据。
set_output(*, transform=None)[source]#
设置输出容器。
- 参数:
- 有关如何使用 API 的示例,请参阅引入 set_output API。
transform{“default”, “pandas”, “polars”}, 默认值=None
配置
transform
和fit_transform
的输出。"default"
: 转换器的默认输出格式"pandas"
: DataFrame 输出"polars"
: Polars 输出
None
: 转换配置未更改
- 返回:
- 1.4 版本新增: 添加了
"polars"
选项。 self估计器实例
- 1.4 版本新增: 添加了
- 估计器实例。
-
设置此估计器的参数。
- 参数:
- 该方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,以便可以更新嵌套对象的每个组件。 **paramsdict
- 该方法适用于简单估计器以及嵌套对象(例如
- 返回:
- 1.4 版本新增: 添加了
"polars"
选项。 self估计器实例
- 1.4 版本新增: 添加了