稀疏主成分分析 (SparsePCA)#
- class sklearn.decomposition.SparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, max_iter=1000, tol=1e-08, method='lars', n_jobs=None, U_init=None, V_init=None, verbose=False, random_state=None)[source]#
稀疏主成分分析 (SparsePCA).
寻找能够最佳重建数据的稀疏成分集。稀疏程度可以通过L1惩罚的系数(由参数alpha给出)来控制。
更多信息请参考 用户指南.
- 参数:
- n_componentsint, 默认值=None
要提取的稀疏原子数量。如果为 None,则
n_components
将设置为n_features
。- alpha浮点数,默认值=1
控制稀疏度的参数。较高的值会导致更稀疏的成分。
- ridge_alpha浮点数,默认值=0.01
为了提高调用转换方法时的条件数,而应用的岭收缩量。
- max_iter整数,默认值=1000
要执行的最大迭代次数。
- tol浮点数,默认值=1e-8
停止条件的容差。
- method{'lars', 'cd'},默认值='lars'
用于优化的算法。lars:使用最小角回归法求解套索问题 (linear_model.lars_path);cd:使用坐标下降法计算套索解 (linear_model.Lasso)。如果估计的成分是稀疏的,则 Lars 会更快。
- n_jobs整数,默认值=None
要运行的并行作业数。
None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有处理器。更多详情请参见 术语表。- U_init形状为 (n_samples, n_components) 的 ndarray,默认值=None
用于热重启场景的载荷的初始值。仅当
U_init
和V_init
不为 None 时使用。- V_init形状为 (n_components, n_features) 的 ndarray,默认值=None
用于热重启场景的成分的初始值。仅当
U_init
和V_init
不为 None 时使用。- verbose整数或布尔值,默认值=False
控制详细程度;值越高,显示的消息越多。默认为 0。
- random_state整数、RandomState 实例或 None,默认值=None
在字典学习中使用。传递一个整数以在多次函数调用中获得可重复的结果。参见 术语表。
- 属性:
- components_形状为 (n_components, n_features) 的 ndarray
从数据中提取的稀疏成分。
- error_ndarray
每次迭代的误差向量。
- n_components_整数
估计的成分数量。
在 0.23 版本中添加。
- n_iter_整数
运行的迭代次数。
- mean_形状为 (n_features,) 的 ndarray
从训练集中估计的每个特征的经验均值。等于
X.mean(axis=0)
。- n_features_in_整数
在 拟合 期间看到的特征数量。
在 0.24 版本中添加。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 在 拟合 期间看到的特征名称。仅当
X
的特征名称全部为字符串时定义。在 1.0 版本中添加。
另请参见
PCA
主成分分析的实现。
MiniBatchSparsePCA
SparsePCA
的小型批次变体,速度更快但精度较低。DictionaryLearning
使用稀疏代码的通用字典学习问题。
示例
>>> import numpy as np >>> from sklearn.datasets import make_friedman1 >>> from sklearn.decomposition import SparsePCA >>> X, _ = make_friedman1(n_samples=200, n_features=30, random_state=0) >>> transformer = SparsePCA(n_components=5, random_state=0) >>> transformer.fit(X) SparsePCA(...) >>> X_transformed = transformer.transform(X) >>> X_transformed.shape (200, 5) >>> # most values in the components_ are zero (sparsity) >>> np.mean(transformer.components_ == 0) np.float64(0.9666...)
- fit(X, y=None)[source]#
根据 X 中的数据拟合模型。
- 参数:
- X形状为 (n_samples, n_features) 的类数组
训练向量,其中
n_samples
是样本数,n_features
是特征数。- y忽略
未使用,此处出于 API 一致性约定而保留。
- 返回值:
- self对象
返回实例本身。
- fit_transform(X, y=None, **fit_params)[source]#
拟合数据,然后转换它。
使用可选参数
fit_params
将转换器拟合到X
和y
,并返回X
的转换版本。- 参数:
- X形状为 (n_samples, n_features) 的类数组
输入样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组,默认值=None
目标值(无监督转换则为 None)。
- **fit_params字典
其他拟合参数。
- 返回值:
- X_new形状为 (n_samples, n_features_new) 的 ndarray 数组
转换后的数组。
- get_feature_names_out(input_features=None)[source]#
获取转换后的输出特征名称。
输出的特征名称将以小写的类名作为前缀。例如,如果转换器输出 3 个特征,则输出的特征名称为:
["class_name0", "class_name1", "class_name2"]
。- 参数:
- input_features字符串类数组或 None,默认值=None
仅用于使用在
fit
中看到的名称验证特征名称。
- 返回值:
- feature_names_out字符串对象的 ndarray
转换后的特征名称。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看用户指南,了解路由机制的工作原理。
- 返回值:
- routingMetadataRequest
一个
MetadataRequest
,封装了路由信息。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deepbool, default=True
如果为 True,则将返回此估计器及其包含的作为估计器的子对象的参数。
- 返回值:
- paramsdict
参数名称与其值的映射。
- inverse_transform(X)[source]#
将数据从潜在空间转换回原始空间。
由于正向分解引起的信损,这种反转只是一个近似值。
版本 1.2 中新增。
- 参数:
- Xndarray of shape (n_samples, n_components)
潜在空间中的数据。
- 返回值:
- X_originalndarray of shape (n_samples, n_features)
原始空间中重建的数据。
- set_output(*, transform=None)[source]#
设置输出容器。
参见介绍 set_output API,了解如何使用此 API 的示例。
- 参数:
- transform{“default”, “pandas”, “polars”}, default=None
配置
transform
和fit_transform
的输出。"default"
: 变换器的默认输出格式"pandas"
: DataFrame 输出"polars"
: Polars 输出None
: 变换配置不变
版本 1.4 中新增:
"polars"
选项已添加。
- 返回值:
- selfestimator instance
估计器实例。