稀疏PCA#

sklearn.decomposition.SparsePCA(n_components=None, *, alpha=1, ridge_alpha=0.01, max_iter=1000, tol=1e-08, method='lars', n_jobs=None, U_init=None, V_init=None, verbose=False, random_state=None)[源码]#

稀疏主成分分析 (SparsePCA)。

寻找能够最优地重建数据的稀疏分量集。稀疏程度可通过L1惩罚的系数(由参数 alpha 给出)进行控制。

用户指南中阅读更多内容。

参数:
n_components整型,默认值为 None

要提取的稀疏原子数量。如果为 None,则 n_components 将设置为 n_features

alpha浮点型,默认值为 1

稀疏控制参数。值越高,分量越稀疏。

ridge_alpha浮点型,默认值为 0.01

在调用 transform 方法时,为改善条件而应用的岭收缩量。

max_iter整型,默认值为 1000

要执行的最大迭代次数。

tol浮点型,默认值为 1e-8

停止条件的容忍度。

method{'lars', 'cd'},默认值为 'lars'

用于优化的方法。lars:使用最小角回归方法解决 lasso 问题 (linear_model.lars_path) cd:使用坐标下降方法计算 Lasso 解 (linear_model.Lasso)。如果估计的分量是稀疏的,Lars 将更快。

n_jobs整型,默认值为 None

要运行的并行作业数量。None 表示 1,除非在 joblib.parallel_backend 上下文中。-1 表示使用所有处理器。有关更多详细信息,请参见词汇表

U_init形状为 (n_samples, n_components) 的 ndarray,默认值为 None

用于热启动场景的载荷初始值。仅当 U_initV_init 均不为 None 时使用。

V_init形状为 (n_components, n_features) 的 ndarray,默认值为 None

用于热启动场景的分量初始值。仅当 U_initV_init 均不为 None 时使用。

verbose整型或布尔型,默认值为 False

控制详细程度;值越高,消息越多。默认为 0。

random_state整型、RandomState 实例或 None,默认值为 None

在字典学习期间使用。传入一个整数可确保多次函数调用结果可复现。请参见词汇表

属性:
components_形状为 (n_components, n_features) 的 ndarray

从数据中提取的稀疏分量。

error_ndarray

每次迭代的误差向量。

n_components_整型

估计的分量数量。

0.23 版本新增。

n_iter_整型

运行的迭代次数。

mean_形状为 (n_features,) 的 ndarray

每个特征的经验平均值,从训练集中估计。等于 X.mean(axis=0)

n_features_in_整型

拟合 (fit) 期间见到的特征数量。

0.24 版本新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合 (fit) 期间见到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

1.0 版本新增。

另请参见

PCA

主成分分析实现。

MiniBatchSparsePCA

SparsePCA 的小批量变体,速度更快但精度较低。

DictionaryLearning

使用稀疏代码的通用字典学习问题。

示例

>>> import numpy as np
>>> from sklearn.datasets import make_friedman1
>>> from sklearn.decomposition import SparsePCA
>>> X, _ = make_friedman1(n_samples=200, n_features=30, random_state=0)
>>> transformer = SparsePCA(n_components=5, random_state=0)
>>> transformer.fit(X)
SparsePCA(...)
>>> X_transformed = transformer.transform(X)
>>> X_transformed.shape
(200, 5)
>>> # most values in the components_ are zero (sparsity)
>>> np.mean(transformer.components_ == 0)
np.float64(0.9666)
fit(X, y=None)[源码]#

根据 X 中的数据拟合模型。

参数:
X形状为 (n_samples, n_features) 的类数组

训练向量,其中 n_samples 是样本数量,n_features 是特征数量。

y被忽略

未使用,此处存在是为了符合 API 惯例。

返回:
self对象

返回实例本身。

fit_transform(X, y=None, **fit_params)[源码]#

拟合数据,然后对其进行转换。

使用可选参数 fit_params 将转换器拟合到 Xy,并返回 X 的转换版本。

参数:
X形状为 (n_samples, n_features) 的类数组

输入样本。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组,默认值为 None

目标值(对于无监督转换,为 None)。

**fit_params字典

额外的拟合参数。

返回:
X_new形状为 (n_samples, n_features_new) 的 ndarray 数组

转换后的数组。

get_feature_names_out(input_features=None)[源码]#

获取转换后的输出特征名称。

输出特征名称将以小写类名作为前缀。例如,如果转换器输出 3 个特征,则输出特征名称为:["class_name0", "class_name1", "class_name2"]

参数:
input_features字符串类数组或 None,默认值为 None

仅用于根据 fit 中看到的名称验证特征名称。

返回:
feature_names_out字符串对象 ndarray

转换后的特征名称。

get_metadata_routing()[源码]#

获取此对象的元数据路由。

请查阅用户指南,了解路由机制的工作原理。

返回:
routingMetadataRequest

一个封装了路由信息的 MetadataRequest

get_params(deep=True)[源码]#

获取此估计器的参数。

参数:
deep布尔型,默认值为 True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
params字典

参数名称及其对应值的映射。

inverse_transform(X)[源码]#

将数据从潜在空间转换回原始空间。

此反演是近似的,因为正向分解会引起信息损失。

1.2 版本新增。

参数:
X形状为 (n_samples, n_components) 的 ndarray

潜在空间中的数据。

返回:
X_original形状为 (n_samples, n_features) 的 ndarray

原始空间中重建的数据。

set_output(*, transform=None)[源码]#

设置输出容器。

请参阅set_output API 介绍,了解如何使用此 API 的示例。

参数:
transform{"default", "pandas", "polars"},默认值为 None

配置 transformfit_transform 的输出。

  • "default":转换器的默认输出格式

  • "pandas":DataFrame 输出

  • "polars":Polars 输出

  • None:转换配置不变

1.4 版本新增:添加了 "polars" 选项。

返回:
self估计器实例

估计器实例。

set_params(**params)[源码]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。

transform(X)[源码]#

数据到稀疏分量的最小二乘投影。

为避免系统欠定引起的不稳定性问题,可以通过 ridge_alpha 参数应用正则化(岭回归)。

请注意,与 PCA 不同,稀疏 PCA 分量不强制正交性,因此不能使用简单的线性投影。

参数:
X形状为 (n_samples, n_features) 的 ndarray

要转换的测试数据,必须与用于训练模型的数据具有相同数量的特征。

返回:
X_new形状为 (n_samples, n_components) 的 ndarray

转换后的数据。