SparsePCA#
- class sklearn.decomposition.SparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, max_iter=1000, tol=1e-08, method='lars', n_jobs=None, U_init=None, V_init=None, verbose=False, random_state=None)[source]#
稀疏主成分分析 (SparsePCA)。
寻找一组稀疏成分,这些成分可以最优地重构数据。稀疏程度可通过L1惩罚项的系数(由参数alpha给出)进行控制。
在用户指南中阅读更多内容。
- 参数:
- n_componentsint, default=None
要提取的稀疏原子数量。如果为None,则
n_components设置为n_features。- alphafloat, default=1
稀疏性控制参数。值越高,成分越稀疏。
- ridge_alphafloat, default=0.01
在调用transform方法时,为了改善条件而应用的岭收缩量。
- max_iterint, default=1000
要执行的最大迭代次数。
- tolfloat, default=1e-8
停止条件的容差。
- method{‘lars’, ‘cd’}, default=’lars’
用于优化的方法。lars:使用最小角回归方法解决lasso问题(linear_model.lars_path)。cd:使用坐标下降方法计算Lasso解(linear_model.Lasso)。如果估计的成分是稀疏的,Lars会更快。
- n_jobsint, default=None
要并行运行的作业数量。
None表示 1,除非在joblib.parallel_backend上下文中。-1表示使用所有处理器。有关更多详细信息,请参阅词汇表。- U_initshape为(n_samples, n_components)的ndarray,默认为None
用于热启动场景的载荷初始值。仅当
U_init和V_init均不为None时使用。- V_initshape为(n_components, n_features)的ndarray,默认为None
用于热启动场景的成分初始值。仅当
U_init和V_init均不为None时使用。- verboseint or bool, default=False
控制冗余程度;值越高,消息越多。默认为0。
- random_stateint, RandomState instance or None, default=None
在字典学习期间使用。传入一个整数可以在多次函数调用中获得可重现的结果。参见词汇表。
- 属性:
- components_ndarray of shape (n_components, n_features)
从数据中提取的稀疏成分。
- error_ndarray
每次迭代的误差向量。
- n_components_int
估计的成分数量。
0.23 版本新增。
- n_iter_int
运行的迭代次数。
- mean_shape 为 (n_features,) 的 ndarray
根据训练集估计的每特征经验平均值。等于
X.mean(axis=0)。- n_features_in_int
在 拟合 期间看到的特征数。
0.24 版本新增。
- feature_names_in_shape 为 (
n_features_in_,) 的 ndarray 在 fit 期间看到的特征名称。仅当
X具有全部为字符串的特征名称时才定义。1.0 版本新增。
另请参阅
PCA主成分分析实现。
MiniBatchSparsePCASparsePCA的Mini batch变体,速度更快但精度较低。DictionaryLearning使用稀疏代码的通用字典学习问题。
示例
>>> import numpy as np >>> from sklearn.datasets import make_friedman1 >>> from sklearn.decomposition import SparsePCA >>> X, _ = make_friedman1(n_samples=200, n_features=30, random_state=0) >>> transformer = SparsePCA(n_components=5, random_state=0) >>> transformer.fit(X) SparsePCA(...) >>> X_transformed = transformer.transform(X) >>> X_transformed.shape (200, 5) >>> # most values in the components_ are zero (sparsity) >>> np.mean(transformer.components_ == 0) np.float64(0.9666)
- fit(X, y=None)[source]#
根据 X 中的数据拟合模型。
- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
训练向量,其中
n_samples是样本数,n_features是特征数。- y被忽略
Not used, present here for API consistency by convention.
- 返回:
- selfobject
返回实例本身。
- fit_transform(X, y=None, **fit_params)[source]#
拟合数据,然后对其进行转换。
使用可选参数
fit_params将转换器拟合到X和y,并返回X的转换版本。- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
输入样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组对象,默认=None
目标值(对于无监督转换,为 None)。
- **fit_paramsdict
额外的拟合参数。仅当估计器在其
fit方法中接受额外的参数时才传递。
- 返回:
- X_newndarray array of shape (n_samples, n_features_new)
转换后的数组。
- get_feature_names_out(input_features=None)[source]#
获取转换的输出特征名称。
The feature names out will prefixed by the lowercased class name. For example, if the transformer outputs 3 features, then the feature names out are:
["class_name0", "class_name1", "class_name2"].- 参数:
- input_featuresarray-like of str or None, default=None
Only used to validate feature names with the names seen in
fit.
- 返回:
- feature_names_outstr 对象的 ndarray
转换后的特征名称。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查阅 用户指南,了解路由机制如何工作。
- 返回:
- routingMetadataRequest
封装路由信息的
MetadataRequest。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deepbool, default=True
如果为 True,将返回此估计器以及包含的子对象(如果它们是估计器)的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- inverse_transform(X)[source]#
将数据从潜在空间转换回原始空间。
由于前向分解导致的信息丢失,这种反演是一个近似。
1.2 版本新增。
- 参数:
- Xshape为(n_samples, n_components)的ndarray
潜在空间中的数据。
- 返回:
- X_original形状为 (n_samples, n_features) 的 ndarray
原始空间中重构的数据。
- set_output(*, transform=None)[source]#
设置输出容器。
有关如何使用 API 的示例,请参阅引入 set_output API。
- 参数:
- transform{“default”, “pandas”, “polars”}, default=None
配置
transform和fit_transform的输出。"default": 转换器的默认输出格式"pandas": DataFrame 输出"polars": Polars 输出None: 转换配置保持不变
1.4 版本新增: 添加了
"polars"选项。
- 返回:
- selfestimator instance
估计器实例。