Ledoit-Wolf 方法#

class sklearn.covariance.LedoitWolf(*, store_precision=True, assume_centered=False, block_size=1000)[source]#

Ledoit-Wolf 估计器。

Ledoit-Wolf 是一种特殊的收缩形式,其中收缩系数使用 O. Ledoit 和 M. Wolf 的公式计算,如“A Well-Conditioned Estimator for Large-Dimensional Covariance Matrices”(Ledoit 和 Wolf,多元分析杂志,第 88 卷,第 2 期,2004 年 2 月,第 365-411 页)中所述。

用户指南 中了解更多信息。

参数:
store_precision布尔值,默认为 True

指定是否存储估计的精度。

assume_centered布尔值,默认为 False

如果为 True,则在计算之前不会对数据进行居中处理。在处理均值几乎为零但并非完全为零的数据时很有用。如果为 False(默认值),则在计算之前将对数据进行居中处理。

block_size整数,默认为 1000

在 Ledoit-Wolf 估计过程中协方差矩阵将被分割成的块的大小。这纯粹是一种内存优化,不会影响结果。

属性:
covariance_形状为 (n_features, n_features) 的 ndarray

估计的协方差矩阵。

location_形状为 (n_features,) 的 ndarray

估计的位置,即估计的均值。

precision_形状为 (n_features, n_features) 的 ndarray

估计的伪逆矩阵。(仅当 store_precision 为 True 时存储)

shrinkage_浮点数

用于计算收缩估计的凸组合中的系数。范围为 [0, 1]。

n_features_in_整数

拟合 期间看到的特征数量。

在 0.24 版本中添加。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合 期间看到的特征名称。仅当 X 的特征名称全部为字符串时定义。

在 1.0 版本中添加。

另请参见

EllipticEnvelope

用于检测高斯分布数据集中的异常值的对象。

EmpiricalCovariance

最大似然协方差估计器。

GraphicalLasso

使用 l1 正则化估计器的稀疏逆协方差估计。

GraphicalLassoCV

具有交叉验证选择的 l1 惩罚的稀疏逆协方差。

MinCovDet

最小协方差行列式(协方差的稳健估计器)。

OAS

Oracle 近似收缩估计器。

ShrunkCovariance

具有收缩的协方差估计器。

备注

正则化协方差为

(1 - shrinkage) * cov + shrinkage * mu * np.identity(n_features)

其中 mu = trace(cov) / n_features,而 shrinkage 由 Ledoit 和 Wolf 公式给出(参见参考文献)

参考文献

“A Well-Conditioned Estimator for Large-Dimensional Covariance Matrices”,Ledoit 和 Wolf,多元分析杂志,第 88 卷,第 2 期,2004 年 2 月,第 365-411 页。

示例

>>> import numpy as np
>>> from sklearn.covariance import LedoitWolf
>>> real_cov = np.array([[.4, .2],
...                      [.2, .8]])
>>> np.random.seed(0)
>>> X = np.random.multivariate_normal(mean=[0, 0],
...                                   cov=real_cov,
...                                   size=50)
>>> cov = LedoitWolf().fit(X)
>>> cov.covariance_
array([[0.4406..., 0.1616...],
       [0.1616..., 0.8022...]])
>>> cov.location_
array([ 0.0595... , -0.0075...])
error_norm(comp_cov, norm='frobenius', scaling=True, squared=True)[source]#

计算两个协方差估计量之间的均方误差。

参数:
comp_cov形状为 (n_features, n_features) 的类数组

要比较的协方差。

norm {“frobenius”, “spectral”},默认为 “frobenius”

用于计算误差的范数类型。可用的误差类型: - ‘frobenius’(默认):sqrt(tr(A^t.A)) - ‘spectral’: sqrt(max(eigenvalues(A^t.A)),其中 A 是误差 (comp_cov - self.covariance_)

scaling布尔值,默认为 True

如果为 True(默认值),则均方误差范数除以 n_features。如果为 False,则均方误差范数不会重新缩放。

squared布尔值,默认为 True

是否计算均方误差范数或误差范数。如果为 True(默认值),则返回均方误差范数。如果为 False,则返回误差范数。

返回:
result浮点数

selfcomp_cov 协方差估计量之间的均方误差(在 Frobenius 范数的意义上)。

fit(X, y=None)[source]#

将 Ledoit-Wolf 收缩协方差模型拟合到 X。

参数:
X形状为 (n_samples, n_features) 的类数组

训练数据,其中 n_samples 是样本数,n_features 是特征数。

y忽略

未使用,根据惯例为了 API 一致性而存在。

返回:
self对象

返回实例本身。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看用户指南,了解路由机制的工作原理。

返回:
路由元数据请求

一个MetadataRequest 封装了路由信息。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔值,默认为 True

如果为 True,则将返回此估计器以及包含的子对象(如果为估计器)的参数。

返回:
params字典

参数名称与其值的映射。

get_precision()[source]#

获取精度矩阵。

返回:
precision_形状为 (n_features, n_features) 的类数组

与当前协方差对象关联的精度矩阵。

mahalanobis(X)[source]#

计算给定观测值的马氏距离平方。

参数:
X形状为 (n_samples, n_features) 的类数组

观测值,我们计算其马氏距离。假设观测值来自与拟合中使用的数据相同的分布。

返回:
dist形状为 (n_samples,) 的ndarray

观测值的马氏距离平方。

score(X_test, y=None)[source]#

计算估计高斯模型下X_test的对数似然。

高斯模型由其均值和协方差矩阵定义,分别由self.location_self.covariance_表示。

参数:
X_test形状为 (n_samples, n_features) 的类数组

我们计算其似然性的测试数据,其中n_samples是样本数,n_features是特征数。X_test假定来自与拟合中使用的数据相同的分布(包括居中)。

y忽略

未使用,根据惯例为了 API 一致性而存在。

返回:
res浮点数

使用self.location_self.covariance_作为高斯模型均值和协方差矩阵的估计量时,X_test的对数似然。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如Pipeline)。后者具有<component>__<parameter>形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。