GaussianMixture#
- class sklearn.mixture.GaussianMixture(n_components=1, *, covariance_type='full', tol=0.001, reg_covar=1e-06, max_iter=100, n_init=1, init_params='kmeans', weights_init=None, means_init=None, precisions_init=None, random_state=None, warm_start=False, verbose=0, verbose_interval=10)[source]#
高斯混合。
高斯混合模型概率分布的表示。此类允许估计高斯混合分布的参数。
在用户指南中阅读更多内容。
版本 0.18 新增。
- 参数:
- n_componentsint, default=1
混合分量的数量。
- covariance_type{‘full’, ‘tied’, ‘diag’, ‘spherical’}, default=’full’
描述要使用的协方差参数类型的字符串。必须是以下之一:
‘full’:每个分量都有自己的通用协方差矩阵。
‘tied’:所有分量共享同一个通用协方差矩阵。
‘diag’:每个分量都有自己的对角协方差矩阵。
‘spherical’:每个分量都有自己的单一方差。
有关使用
covariance_type的示例,请参阅高斯混合模型选择。- tolfloat, default=1e-3
收敛阈值。当下界平均增益低于此阈值时,EM迭代将停止。
- reg_covarfloat, default=1e-6
添加到协方差对角线的非负正则化。用于确保协方差矩阵都是正的。
- max_iterint, default=100
要执行的EM迭代次数。
- n_initint, default=1
要执行的初始化次数。保留最佳结果。
- init_params{‘kmeans’, ‘k-means++’, ‘random’, ‘random_from_data’}, default=’kmeans’
用于初始化权重、均值和精度的f方法。字符串必须是以下之一:
‘kmeans’:使用kmeans初始化责任。
‘k-means++’:使用k-means++方法进行初始化。
‘random’:随机初始化责任。
‘random_from_data’:初始均值是随机选择的数据点。
v1.1版本中的更改:
init_params现在接受'random_from_data'和'k-means++'作为初始化方法。- weights_init形状为 (n_components, ) 的类数组, default=None
用户提供的初始权重。如果为None,则使用
init_params方法初始化权重。- means_init形状为 (n_components, n_features) 的类数组, default=None
用户提供的初始均值。如果为None,则使用
init_params方法初始化均值。- precisions_init类数组, default=None
用户提供的初始精度(协方差矩阵的逆)。如果为None,则使用'init_params'方法初始化精度。形状取决于'covariance_type'
(n_components,) if 'spherical', (n_features, n_features) if 'tied', (n_components, n_features) if 'diag', (n_components, n_features, n_features) if 'full'
- random_stateint, RandomState instance or None, default=None
控制用于初始化参数的方法(请参阅
init_params)的随机种子。此外,它还控制从拟合分布生成随机样本(请参阅方法sample)。传递一个整数,以便在多次函数调用中获得可重现的输出。请参阅词汇表。- warm_startbool, default=False
如果'warm_start'为True,则上次拟合的解决方案将用作下一次调用fit()的初始化。当fit在类似问题上多次调用时,这可以加快收敛速度。在这种情况下,'n_init'被忽略,并且在第一次调用时只发生一次初始化。请参阅词汇表。
- verboseint, default=0
启用详细输出。如果为1,则打印当前初始化和每个迭代步骤。如果大于1,则还打印对数概率和每个步骤所需的时间。
- verbose_intervalint, default=10
下一次打印之前完成的迭代次数。
- 属性:
- weights_形状为 (n_components,) 的类数组
每个混合分量的权重。
- means_形状为 (n_components, n_features) 的类数组
每个混合分量的均值。
- covariances_类数组
每个混合分量的协方差。形状取决于
covariance_type(n_components,) if 'spherical', (n_features, n_features) if 'tied', (n_components, n_features) if 'diag', (n_components, n_features, n_features) if 'full'
有关使用协方差的示例,请参阅GMM协方差。
- precisions_类数组
混合中每个分量的精度矩阵。精度矩阵是协方差矩阵的逆。协方差矩阵是对称正定的,因此高斯混合可以通过精度矩阵等效地参数化。存储精度矩阵而不是协方差矩阵可以更有效地在测试时计算新样本的对数似然。形状取决于
covariance_type(n_components,) if 'spherical', (n_features, n_features) if 'tied', (n_components, n_features) if 'diag', (n_components, n_features, n_features) if 'full'
- precisions_cholesky_类数组
每个混合分量精度矩阵的Cholesky分解。精度矩阵是协方差矩阵的逆。协方差矩阵是对称正定的,因此高斯混合可以通过精度矩阵等效地参数化。存储精度矩阵而不是协方差矩阵可以更有效地在测试时计算新样本的对数似然。形状取决于
covariance_type(n_components,) if 'spherical', (n_features, n_features) if 'tied', (n_components, n_features) if 'diag', (n_components, n_features, n_features) if 'full'
- converged_bool
当EM的最佳拟合达到收敛时为True,否则为False。
- n_iter_int
EM的最佳拟合达到收敛所使用的步数。
- lower_bound_float
EM最佳拟合的对数似然(训练数据相对于模型)的下界值。
- lower_bounds_形状为 (
n_iter_,) 的类数组 EM最佳拟合每次迭代的对数似然下界值列表。
- n_features_in_int
在 拟合 期间看到的特征数。
0.24 版本新增。
- feature_names_in_shape 为 (
n_features_in_,) 的 ndarray 在 fit 期间看到的特征名称。仅当
X具有全部为字符串的特征名称时才定义。1.0 版本新增。
另请参阅
BayesianGaussianMixture使用变分推理拟合的高斯混合模型。
示例
>>> import numpy as np >>> from sklearn.mixture import GaussianMixture >>> X = np.array([[1, 2], [1, 4], [1, 0], [10, 2], [10, 4], [10, 0]]) >>> gm = GaussianMixture(n_components=2, random_state=0).fit(X) >>> gm.means_ array([[10., 2.], [ 1., 2.]]) >>> gm.predict([[0, 0], [12, 3]]) array([1, 0])
有关高斯混合与其他聚类算法的比较,请参阅在玩具数据集上比较不同的聚类算法。
有关
GaussianMixture模型负对数似然曲面的图示,请参阅高斯混合的密度估计。- aic(X)[source]#
当前模型在输入X上的Akaike信息准则。
有关所用AIC公式的更多详细信息,您可以参考此数学部分。
- 参数:
- X形状为 (n_samples, n_dimensions) 的数组
输入样本。
- 返回:
- aicfloat
越低越好。
- bic(X)[source]#
当前模型在输入X上的贝叶斯信息准则。
有关所用BIC公式的更多详细信息,您可以参考此数学部分。
有关使用
bic信息准则进行GMM选择的示例,请参阅高斯混合模型选择。- 参数:
- X形状为 (n_samples, n_dimensions) 的数组
输入样本。
- 返回:
- bicfloat
越低越好。
- fit(X, y=None)[source]#
使用EM算法估计模型参数。
该方法拟合模型
n_init次,并设置模型具有最大似然或下界的参数。在每次试验中,该方法在E步和M步之间迭代max_iter次,直到似然或下界的变化小于tol,否则会引发ConvergenceWarning。如果warm_start为True,则忽略n_init,并在第一次调用时执行一次初始化。在后续调用中,训练从上次停止的地方开始。- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
n_features维数据点列表。每行对应一个数据点。
- y被忽略
未使用,按照惯例为保持 API 一致性而存在。
- 返回:
- selfobject
拟合的混合。
- fit_predict(X, y=None)[source]#
使用X估计模型参数并预测X的标签。
该方法拟合模型
n_init次,并设置模型具有最大似然或下界的参数。在每次试验中,该方法在E步和M步之间迭代max_iter次,直到似然或下界的变化小于tol,否则会引发ConvergenceWarning。拟合后,它会预测输入数据点最可能的标签。0.20 版本新增。
- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
n_features维数据点列表。每行对应一个数据点。
- y被忽略
未使用,按照惯例为保持 API 一致性而存在。
- 返回:
- labels数组,形状 (n_samples,)
分量标签。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查阅 用户指南,了解路由机制如何工作。
- 返回:
- routingMetadataRequest
封装路由信息的
MetadataRequest。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deepbool, default=True
如果为 True,将返回此估计器以及包含的子对象(如果它们是估计器)的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- predict(X)[source]#
使用训练好的模型预测X中数据样本的标签。
- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
n_features维数据点列表。每行对应一个数据点。
- 返回:
- labels数组,形状 (n_samples,)
分量标签。
- predict_proba(X)[source]#
评估每个样本的分量密度。
- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
n_features维数据点列表。每行对应一个数据点。
- 返回:
- resp数组,形状 (n_samples, n_components)
X中每个样本的每个高斯分量的密度。
- sample(n_samples=1)[source]#
从拟合的高斯分布生成随机样本。
- 参数:
- n_samplesint, default=1
要生成的样本数量。
- 返回:
- X数组,形状 (n_samples, n_features)
随机生成的样本。
- y数组,形状 (nsamples,)
分量标签。
- score(X, y=None)[source]#
计算给定数据X的每个样本的平均对数似然。
- 参数:
- X形状为 (n_samples, n_dimensions) 的类数组
n_features维数据点列表。每行对应一个数据点。
- y被忽略
未使用,按照惯例为保持 API 一致性而存在。
- 返回:
- log_likelihoodfloat
高斯混合模型下
X的对数似然。