注意
转到结尾 下载完整的示例代码。或通过 JupyterLite 或 Binder 在浏览器中运行此示例。
聚类性能评估中的偶然性调整#
本笔记本探讨了均匀分布的随机标签对一些聚类评估指标行为的影响。为此,指标的计算使用了固定数量的样本,并作为估计器分配的聚类数量的函数。该示例分为两个实验:
第一个实验使用固定的“真实标签”(因此类数固定)和随机的“预测标签”;
第二个实验使用变化的“真实标签”和随机的“预测标签”。“预测标签”的类别数和聚类数与“真实标签”相同。
# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause
定义要评估的指标列表#
聚类算法从根本上说是无监督学习方法。但是,由于在本例中我们为合成聚类分配了类别标签,因此可以使用利用此“监督”真实信息来量化结果聚类质量的评估指标。此类指标的示例如下:
V-measure,完整性和同质性的调和平均值;
Rand 指数,衡量数据点对根据聚类算法的结果和真实类别分配一致分组的频率;
调整后的 Rand 指数 (ARI),一种经过偶然性调整的 Rand 指数,使得随机聚类分配的 ARI 期望值为 0.0;
互信息 (MI) 是一种信息论度量,它量化了两个标签的依赖程度。请注意,对于完美的标签,MI 的最大值取决于聚类数和样本数;
归一化互信息 (NMI),在大量数据点的情况下定义在 0(无互信息)和 1(完美匹配的标签分配,直至标签的排列)之间的互信息。它没有经过偶然性调整:如果聚类数据点的数量不够大,则随机标签的 MI 或 NMI 的期望值可能显著非零;
调整后的互信息 (AMI),一种经过偶然性调整的互信息。与 ARI 类似,随机聚类分配的 AMI 期望值为 0.0。
有关更多信息,请参见 聚类性能评估 模块。
from sklearn import metrics
score_funcs = [
("V-measure", metrics.v_measure_score),
("Rand index", metrics.rand_score),
("ARI", metrics.adjusted_rand_score),
("MI", metrics.mutual_info_score),
("NMI", metrics.normalized_mutual_info_score),
("AMI", metrics.adjusted_mutual_info_score),
]
第一个实验:固定真实标签和不断增加的聚类数#
我们首先定义一个创建均匀分布随机标签的函数。
import numpy as np
rng = np.random.RandomState(0)
def random_labels(n_samples, n_classes):
return rng.randint(low=0, high=n_classes, size=n_samples)
另一个函数将使用 random_labels
函数创建一组固定的真实标签(labels_a
),分布在 n_classes
中,然后对几组随机“预测”标签(labels_b
)进行评分,以评估给定 n_clusters
下给定指标的变异性。
def fixed_classes_uniform_labelings_scores(
score_func, n_samples, n_clusters_range, n_classes, n_runs=5
):
scores = np.zeros((len(n_clusters_range), n_runs))
labels_a = random_labels(n_samples=n_samples, n_classes=n_classes)
for i, n_clusters in enumerate(n_clusters_range):
for j in range(n_runs):
labels_b = random_labels(n_samples=n_samples, n_classes=n_clusters)
scores[i, j] = score_func(labels_a, labels_b)
return scores
在这个第一个示例中,我们将类别数(真实的聚类数)设置为 n_classes=10
。聚类数在 n_clusters_range
提供的值范围内变化。
import matplotlib.pyplot as plt
import seaborn as sns
n_samples = 1000
n_classes = 10
n_clusters_range = np.linspace(2, 100, 10).astype(int)
plots = []
names = []
sns.color_palette("colorblind")
plt.figure(1)
for marker, (score_name, score_func) in zip("d^vx.,", score_funcs):
scores = fixed_classes_uniform_labelings_scores(
score_func, n_samples, n_clusters_range, n_classes=n_classes
)
plots.append(
plt.errorbar(
n_clusters_range,
scores.mean(axis=1),
scores.std(axis=1),
alpha=0.8,
linewidth=1,
marker=marker,
)[0]
)
names.append(score_name)
plt.title(
"Clustering measures for random uniform labeling\n"
f"against reference assignment with {n_classes} classes"
)
plt.xlabel(f"Number of clusters (Number of samples is fixed to {n_samples})")
plt.ylabel("Score value")
plt.ylim(bottom=-0.05, top=1.05)
plt.legend(plots, names, bbox_to_anchor=(0.5, 0.5))
plt.show()
对于 n_clusters
> n_classes
,Rand 指数达到饱和。其他未经调整的度量(如 V-Measure)显示聚类数和样本数之间存在线性依赖关系。
经过偶然性调整的度量,例如 ARI 和 AMI,显示围绕 0.0 的平均分数的一些随机变化,与样本数和聚类数无关。
第二个实验:变化的类别数和聚类数#
在本节中,我们定义了一个类似的函数,该函数使用多个指标对 2 个均匀分布的随机标签进行评分。在这种情况下,对于 n_clusters_range
中的每个可能值,类别数和分配的聚类数都匹配。
def uniform_labelings_scores(score_func, n_samples, n_clusters_range, n_runs=5):
scores = np.zeros((len(n_clusters_range), n_runs))
for i, n_clusters in enumerate(n_clusters_range):
for j in range(n_runs):
labels_a = random_labels(n_samples=n_samples, n_classes=n_clusters)
labels_b = random_labels(n_samples=n_samples, n_classes=n_clusters)
scores[i, j] = score_func(labels_a, labels_b)
return scores
在这种情况下,我们使用 n_samples=100
来显示聚类数与用于计算度量的样本总数相似或相等的影响。
n_samples = 100
n_clusters_range = np.linspace(2, n_samples, 10).astype(int)
plt.figure(2)
plots = []
names = []
for marker, (score_name, score_func) in zip("d^vx.,", score_funcs):
scores = uniform_labelings_scores(score_func, n_samples, n_clusters_range)
plots.append(
plt.errorbar(
n_clusters_range,
np.median(scores, axis=1),
scores.std(axis=1),
alpha=0.8,
linewidth=2,
marker=marker,
)[0]
)
names.append(score_name)
plt.title(
"Clustering measures for 2 random uniform labelings\nwith equal number of clusters"
)
plt.xlabel(f"Number of clusters (Number of samples is fixed to {n_samples})")
plt.ylabel("Score value")
plt.legend(plots, names)
plt.ylim(bottom=-0.05, top=1.05)
plt.show()
我们观察到与第一个实验类似的结果:经过偶然性调整的指标始终保持接近零,而其他指标往往随着更细粒度的标签而变大。随着聚类数更接近用于计算度量的样本总数,随机标签的平均 V-Measure 显着增加。此外,原始互信息不受上限限制,其尺度取决于聚类问题的维度和真实类别的基数。这就是曲线超出图表范围的原因。
因此,只有经过调整的度量才能安全地用作一致性指数,以评估给定 k 值下各种数据集重叠子样本上聚类算法的平均稳定性。
未经调整的聚类评估指标可能会产生误导,因为它们会为细粒度的标签输出较大的值,人们可能会认为该标签捕获了有意义的组,而它们可能是完全随机的。特别是,此类未经调整的指标不应用于比较输出不同聚类数的不同聚类算法的结果。
脚本的总运行时间:(0 分钟 0.987 秒)
相关示例