PCA#

class sklearn.decomposition.PCA(n_components=None, *, copy=True, whiten=False, svd_solver='auto', tol=0.0, iterated_power='auto', n_oversamples=10, power_iteration_normalizer='auto', random_state=None)[source]#

主成分分析(PCA)。

使用数据的奇异值分解将其投影到低维空间,从而实现线性降维。在应用奇异值分解之前,输入数据会针对每个特征进行中心化处理,但不会进行缩放。

它使用完整的奇异值分解的 LAPACK 实现,或者根据输入数据的形状和要提取的组件数量,使用 Halko 等人 2009 年提出的随机截断奇异值分解方法。

对于稀疏输入,可以使用截断奇异值分解的 ARPACK 实现(即通过 scipy.sparse.linalg.svds)。另外,也可以考虑 TruncatedSVD,其数据未中心化。

请注意,此类别仅支持某些求解器(如“arpack”和“covariance_eigh”)的稀疏输入。对于稀疏数据,请参阅 TruncatedSVD 以获取替代方案。

有关使用示例,请参阅 鸢尾花数据集上的主成分分析 (PCA)

用户指南中阅读更多内容。

参数:
n_componentsint, float 或 'mle', 默认值=None

要保留的组件数量。如果未设置 n_components,则保留所有组件。

n_components == min(n_samples, n_features)

如果 n_components == 'mle'svd_solver == 'full',则使用 Minka 的 MLE 估计维度。n_components == 'mle' 的使用会将 svd_solver == 'auto' 解释为 svd_solver == 'full'

如果 0 < n_components < 1'svd_solver == 'full',则选择组件数量,使得需要解释的方差量大于由 n_components 指定的百分比。

如果 svd_solver == 'arpack',则组件数量必须严格小于 n_features 和 n_samples 中的最小值。

因此,None 情况导致

n_components == min(n_samples, n_features) - 1
copybool, 默认值=True

如果为 False,则传递给 fit 的数据将被覆盖,运行 fit(X).transform(X) 将不会产生预期结果,请改用 fit_transform(X)。

whitenbool, 默认值=False

当为 True(默认为 False)时,components_ 向量将乘以 n_samples 的平方根,然后除以奇异值,以确保输出不相关且具有单位分量方差。

白化会从转换后的信号中去除一些信息(组件的相对方差尺度),但有时可以通过使数据符合某些硬编码的假设来提高下游估计器的预测精度。

svd_solver{'auto', 'full', 'covariance_eigh', 'arpack', 'randomized'}, 默认值='auto'
“auto”

求解器由默认的“auto”策略选择,该策略基于 X.shapen_components:如果输入数据具有少于 1000 个特征且样本数量是特征数量的 10 倍以上,则使用“covariance_eigh”求解器。否则,如果输入数据大于 500x500 且要提取的组件数量低于数据最小维度的 80%,则选择更高效的“randomized”方法。否则,计算精确的“full”SVD,并可选地进行截断。

“full”

通过 scipy.linalg.svd 调用标准 LAPACK 求解器,运行精确的完整 SVD,并通过后处理选择组件。

“covariance_eigh”

预先计算协方差矩阵(在中心化数据上),通常使用 LAPACK 对协方差矩阵运行经典的特征值分解,并通过后处理选择组件。此求解器对于 n_samples >> n_features 且 n_features 较小的情况非常高效。但是,对于较大的 n_features 则不可行(需要大量的内存来具体化协方差矩阵)。另请注意,与“full”求解器相比,此求解器实际上使条件数加倍,因此数值稳定性较差(例如,对于具有大范围奇异值的输入数据)。

“arpack”

通过 scipy.sparse.linalg.svds 调用 ARPACK 求解器,运行截断到 n_components 的 SVD。它要求严格 0 < n_components < min(X.shape)

“randomized”

根据 Halko 等人的方法运行随机 SVD。

在 0.18.0 版本中新增。

1.5 版本中更改: 新增了“covariance_eigh”求解器。

tolfloat, 默认值=0.0

svd_solver == 'arpack' 计算的奇异值容差。必须在 [0.0, infinity) 范围内。

在 0.18.0 版本中新增。

iterated_powerint 或 'auto', 默认值='auto'

svd_solver == 'randomized' 计算的幂方法迭代次数。必须在 [0, infinity) 范围内。

在 0.18.0 版本中新增。

n_oversamplesint, 默认值=10

此参数仅在 svd_solver="randomized" 时相关。它对应于用于对 X 范围进行采样的额外随机向量数量,以确保适当的条件。有关更多详细信息,请参阅 randomized_svd

在 1.1 版本中新增。

power_iteration_normalizer{'auto', 'QR', 'LU', 'none'}, 默认值='auto'

用于随机 SVD 求解器的幂迭代归一化器。ARPACK 未使用。有关更多详细信息,请参阅 randomized_svd

在 1.1 版本中新增。

random_stateint, RandomState 实例或 None, 默认值=None

当使用“arpack”或“randomized”求解器时使用。传递一个整数可在多次函数调用中获得可重现的结果。参见词汇表

在 0.18.0 版本中新增。

属性:
components_形状为 (n_components, n_features) 的 ndarray

特征空间中的主轴,表示数据中最大方差的方向。等效地,中心化输入数据的右奇异向量,平行于其特征向量。组件按递减的 explained_variance_ 排序。

explained_variance_形状为 (n_components,) 的 ndarray

每个选定组件解释的方差量。方差估计使用 n_samples - 1 自由度。

等于 X 协方差矩阵的 n_components 个最大特征值。

在 0.18 版本中新增。

explained_variance_ratio_形状为 (n_components,) 的 ndarray

每个选定组件解释的方差百分比。

如果未设置 n_components,则存储所有组件,并且比率之和等于 1.0。

singular_values_形状为 (n_components,) 的 ndarray

每个选定组件对应的奇异值。奇异值等于低维空间中 n_components 个变量的 2-范数。

在 0.19 版本中新增。

mean_形状为 (n_features,) 的 ndarray

每个特征的经验均值,从训练集中估计。

等于 X.mean(axis=0)

n_components_int

估计的组件数量。当 n_components 设置为“mle”或 0 到 1 之间的数字(svd_solver == 'full')时,此数字从输入数据中估计。否则,它等于参数 n_components,如果 n_components 为 None,则等于 n_features 和 n_samples 中较小的值。

n_samples_int

训练数据中的样本数量。

noise_variance_float

根据 Tipping 和 Bishop 1999 年的概率 PCA 模型估计的噪声协方差。参见 C. Bishop 的“模式识别与机器学习”,12.2.1 节,第 574 页,或 http://www.miketipping.com/papers/met-mppca.pdf。这是计算估计数据协方差和评分样本所必需的。

等于 X 的协方差矩阵中 (min(n_features, n_samples) - n_components) 个最小特征值的平均值。

n_features_in_int

拟合期间看到的特征数量。

在 0.24 版本中新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

在 1.0 版本中新增。

另请参阅

KernelPCA

核主成分分析。

SparsePCA

稀疏主成分分析。

TruncatedSVD

使用截断 SVD 进行降维。

IncrementalPCA

增量主成分分析。

参考资料

对于 n_components == 'mle',此类别使用以下方法:Minka, T. P.. “PCA 的维度自动选择”. In NIPS, pp. 598-604

通过 score 和 score_samples 方法实现了 Tipping 和 Bishop 1999 年提出的概率 PCA 模型:Tipping, M. E., and Bishop, C. M. (1999). “概率主成分分析”. Journal of the Royal Statistical Society: Series B (Statistical Methodology), 61(3), 611-622.

对于 svd_solver == 'arpack',请参阅 scipy.sparse.linalg.svds

对于 svd_solver == 'randomized',请参阅:Halko, N., Martinsson, P. G., and Tropp, J. A. (2011). “用随机性寻找结构:构建近似矩阵分解的概率算法”. SIAM review, 53(2), 217-288.Martinsson, P. G., Rokhlin, V., and Tygert, M. (2011). “矩阵分解的随机算法”. Applied and Computational Harmonic Analysis, 30(1), 47-68.

示例

>>> import numpy as np
>>> from sklearn.decomposition import PCA
>>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> pca = PCA(n_components=2)
>>> pca.fit(X)
PCA(n_components=2)
>>> print(pca.explained_variance_ratio_)
[0.9924 0.0075]
>>> print(pca.singular_values_)
[6.30061 0.54980]
>>> pca = PCA(n_components=2, svd_solver='full')
>>> pca.fit(X)
PCA(n_components=2, svd_solver='full')
>>> print(pca.explained_variance_ratio_)
[0.9924 0.00755]
>>> print(pca.singular_values_)
[6.30061 0.54980]
>>> pca = PCA(n_components=1, svd_solver='arpack')
>>> pca.fit(X)
PCA(n_components=1, svd_solver='arpack')
>>> print(pca.explained_variance_ratio_)
[0.99244]
>>> print(pca.singular_values_)
[6.30061]
fit(X, y=None)[source]#

用 X 拟合模型。

参数:
X{array-like, 稀疏矩阵} 形状为 (n_samples, n_features)

训练数据,其中 n_samples 是样本数量,n_features 是特征数量。

y忽略

忽略。

返回:
self对象

返回实例本身。

fit_transform(X, y=None)[source]#

用 X 拟合模型并在 X 上应用降维。

参数:
X{array-like, 稀疏矩阵} 形状为 (n_samples, n_features)

训练数据,其中 n_samples 是样本数量,n_features 是特征数量。

y忽略

忽略。

返回:
X_new形状为 (n_samples, n_components) 的 ndarray

转换后的值。

备注

此方法返回一个 Fortran 序数组。要将其转换为 C 序数组,请使用“np.ascontiguousarray”。

get_covariance()[source]#

使用生成模型计算数据协方差。

cov = components_.T * S**2 * components_ + sigma2 * eye(n_features),其中 S**2 包含解释方差,sigma2 包含噪声方差。

返回:
cov形状为 (n_features, n_features) 的数组

估计的数据协方差。

get_feature_names_out(input_features=None)[source]#

获取转换的输出特征名称。

输出特征名称将以小写类名作为前缀。例如,如果转换器输出 3 个特征,则输出特征名称为:["class_name0", "class_name1", "class_name2"]

参数:
input_featuresarray-like 的字符串或 None, 默认值=None

仅用于根据 fit 中看到的名称验证特征名称。

返回:
feature_names_out字符串对象的 ndarray

转换后的特征名称。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查阅 用户指南,了解路由机制的工作原理。

返回:
routingMetadataRequest

一个封装路由信息的 MetadataRequest

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deepbool, 默认值=True

如果为 True,则返回此估计器及其包含的作为估计器的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

get_precision()[source]#

使用生成模型计算数据精度矩阵。

等于协方差的逆,但为了效率使用矩阵求逆引理计算。

返回:
precision数组,形状为 (n_features, n_features)

估计的数据精度。

inverse_transform(X)[source]#

将数据转换回其原始空间。

换句话说,返回一个输入 X_original,其转换将是 X。

参数:
Xarray-like 形状为 (n_samples, n_components)

新数据,其中 n_samples 是样本数量,n_components 是组件数量。

返回:
X_originalarray-like 形状为 (n_samples, n_features)

原始数据,其中 n_samples 是样本数量,n_features 是特征数量。

备注

如果启用了白化,inverse_transform 将计算精确的逆运算,其中包括反转白化。

score(X, y=None)[source]#

返回所有样本的平均对数似然。

参见 C. Bishop 的“模式识别与机器学习”,12.2.1 节,第 574 页,或 http://www.miketipping.com/papers/met-mppca.pdf

参数:
Xarray-like 形状为 (n_samples, n_features)

数据。

y忽略

忽略。

返回:
llfloat

当前模型下样本的平均对数似然。

score_samples(X)[source]#

返回每个样本的对数似然。

参见 C. Bishop 的“模式识别与机器学习”,12.2.1 节,第 574 页,或 http://www.miketipping.com/papers/met-mppca.pdf

参数:
Xarray-like 形状为 (n_samples, n_features)

数据。

返回:
ll形状为 (n_samples,) 的 ndarray

当前模型下每个样本的对数似然。

set_output(*, transform=None)[source]#

设置输出容器。

有关如何使用 API 的示例,请参阅 介绍 set_output API

参数:
transform{"default", "pandas", "polars"}, 默认值=None

配置 transformfit_transform 的输出。

  • "default": 转换器的默认输出格式

  • "pandas": DataFrame 输出

  • "polars": Polars 输出

  • None: 转换配置未改变

在 1.4 版本中新增: 添加了 "polars" 选项。

返回:
self估计器实例

估计器实例。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。

transform(X)[source]#

对 X 应用降维。

X 被投影到之前从训练集中提取的第一个主成分上。

参数:
X{array-like, 稀疏矩阵} 形状为 (n_samples, n_features)

新数据,其中 n_samples 是样本数量,n_features 是特征数量。

返回:
X_newarray-like 形状为 (n_samples, n_components)

X 在第一个主成分中的投影,其中 n_samples 是样本数量,n_components 是组件数量。