聚类性能评估中的机会调整#

本笔记本探讨了均匀分布的随机标签对一些聚类评估指标行为的影响。为此,指标是在固定样本数量下计算的,并且作为估计器分配的聚类数量的函数。该示例分为两个实验

  • 第一个实验使用固定的“真实标签”(因此类数固定)和随机的“预测标签”;

  • 第二个实验使用不同的“真实标签”,随机的“预测标签”。“预测标签”与“真实标签”具有相同的类数和聚类数。

# Author: Olivier Grisel <[email protected]>
#         Arturo Amor <[email protected]>
# License: BSD 3 clause

定义要评估的指标列表#

聚类算法本质上是无监督学习方法。但是,由于我们在本示例中为合成聚类分配了类标签,因此可以使用利用此“监督”真实信息来量化结果聚类质量的评估指标。此类指标的示例如下

  • V-measure,完整性和同质性的调和平均值;

  • Rand 指数,它衡量的是根据聚类算法的结果和真实类分配,数据点对被一致分组的频率;

  • 调整后的 Rand 指数 (ARI),一个机会调整后的 Rand 指数,使得随机聚类分配的 ARI 预期值为 0.0;

  • 互信息 (MI) 是一种信息论度量,它量化了两个标签的依赖程度。请注意,对于完美的标签,MI 的最大值取决于聚类数量和样本数量;

  • 归一化互信息 (NMI),在大量数据点的情况下,定义在 0(无互信息)和 1(完美匹配的标签分配,直到标签排列)之间的互信息。它没有针对机会进行调整:如果聚类数据点的数量不够大,则 MI 或 NMI 的随机标签的预期值可能显着非零;

  • 调整后的互信息 (AMI),一个机会调整后的互信息。与 ARI 类似,随机聚类分配的 AMI 预期值为 0.0。

有关更多信息,请参阅 聚类性能评估 模块。

from sklearn import metrics

score_funcs = [
    ("V-measure", metrics.v_measure_score),
    ("Rand index", metrics.rand_score),
    ("ARI", metrics.adjusted_rand_score),
    ("MI", metrics.mutual_info_score),
    ("NMI", metrics.normalized_mutual_info_score),
    ("AMI", metrics.adjusted_mutual_info_score),
]

第一个实验:固定真实标签和不断增长的聚类数量#

我们首先定义一个函数来创建均匀分布的随机标签。

import numpy as np

rng = np.random.RandomState(0)


def random_labels(n_samples, n_classes):
    return rng.randint(low=0, high=n_classes, size=n_samples)

另一个函数将使用 random_labels 函数来创建一组固定的真实标签 (labels_a),这些标签分布在 n_classes 中,然后对几组随机“预测”的标签 (labels_b) 进行评分,以评估给定 n_clusters 下给定指标的可变性。

def fixed_classes_uniform_labelings_scores(
    score_func, n_samples, n_clusters_range, n_classes, n_runs=5
):
    scores = np.zeros((len(n_clusters_range), n_runs))
    labels_a = random_labels(n_samples=n_samples, n_classes=n_classes)

    for i, n_clusters in enumerate(n_clusters_range):
        for j in range(n_runs):
            labels_b = random_labels(n_samples=n_samples, n_classes=n_clusters)
            scores[i, j] = score_func(labels_a, labels_b)
    return scores

在这个第一个示例中,我们将类数(真实聚类数)设置为 n_classes=10。聚类数量在 n_clusters_range 提供的值范围内变化。

import matplotlib.pyplot as plt
import seaborn as sns

n_samples = 1000
n_classes = 10
n_clusters_range = np.linspace(2, 100, 10).astype(int)
plots = []
names = []

sns.color_palette("colorblind")
plt.figure(1)

for marker, (score_name, score_func) in zip("d^vx.,", score_funcs):
    scores = fixed_classes_uniform_labelings_scores(
        score_func, n_samples, n_clusters_range, n_classes=n_classes
    )
    plots.append(
        plt.errorbar(
            n_clusters_range,
            scores.mean(axis=1),
            scores.std(axis=1),
            alpha=0.8,
            linewidth=1,
            marker=marker,
        )[0]
    )
    names.append(score_name)

plt.title(
    "Clustering measures for random uniform labeling\n"
    f"against reference assignment with {n_classes} classes"
)
plt.xlabel(f"Number of clusters (Number of samples is fixed to {n_samples})")
plt.ylabel("Score value")
plt.ylim(bottom=-0.05, top=1.05)
plt.legend(plots, names, bbox_to_anchor=(0.5, 0.5))
plt.show()
Clustering measures for random uniform labeling against reference assignment with 10 classes

对于 n_clusters > n_classes,Rand 指数饱和。其他未调整的度量,例如 V-Measure,显示出聚类数量和样本数量之间的线性依赖关系。

机会调整后的度量,例如 ARI 和 AMI,显示出以 0.0 的平均分数为中心的随机变化,与样本数量和聚类数量无关。

第二个实验:不同的类数和聚类数量#

在本节中,我们定义了一个类似的函数,该函数使用多个指标对 2 个均匀分布的随机标签进行评分。在这种情况下,对于 n_clusters_range 中的每个可能值,类数和分配的聚类数量都匹配。

def uniform_labelings_scores(score_func, n_samples, n_clusters_range, n_runs=5):
    scores = np.zeros((len(n_clusters_range), n_runs))

    for i, n_clusters in enumerate(n_clusters_range):
        for j in range(n_runs):
            labels_a = random_labels(n_samples=n_samples, n_classes=n_clusters)
            labels_b = random_labels(n_samples=n_samples, n_classes=n_clusters)
            scores[i, j] = score_func(labels_a, labels_b)
    return scores

在这种情况下,我们使用 n_samples=100 来显示聚类数量与用于计算度量的样本总数相似或相等的效果。

n_samples = 100
n_clusters_range = np.linspace(2, n_samples, 10).astype(int)

plt.figure(2)

plots = []
names = []

for marker, (score_name, score_func) in zip("d^vx.,", score_funcs):
    scores = uniform_labelings_scores(score_func, n_samples, n_clusters_range)
    plots.append(
        plt.errorbar(
            n_clusters_range,
            np.median(scores, axis=1),
            scores.std(axis=1),
            alpha=0.8,
            linewidth=2,
            marker=marker,
        )[0]
    )
    names.append(score_name)

plt.title(
    "Clustering measures for 2 random uniform labelings\nwith equal number of clusters"
)
plt.xlabel(f"Number of clusters (Number of samples is fixed to {n_samples})")
plt.ylabel("Score value")
plt.legend(plots, names)
plt.ylim(bottom=-0.05, top=1.05)
plt.show()
Clustering measures for 2 random uniform labelings with equal number of clusters

我们观察到与第一个实验类似的结果:机会调整后的指标始终保持接近零,而其他指标往往随着更细粒度的标签而变大。随机标签的平均 V-measure 随着聚类数量更接近用于计算度量的样本总数而显着增加。此外,原始互信息不受上限限制,其比例取决于聚类问题的维度和真实类的基数。这就是曲线超出图表范围的原因。

因此,只有调整后的度量才能安全地用作一致性指标,以评估给定 k 值下不同重叠数据集子样本上聚类算法的平均稳定性。

因此,未调整的聚类评估指标可能会产生误导,因为它们会为细粒度的标签输出较大的值,人们可能会认为标签捕获了有意义的组,而实际上它们可能是完全随机的。特别是,此类未调整的指标不应用于比较输出不同聚类数量的不同聚类算法的结果。

脚本的总运行时间:(0 分钟 1.170 秒)

相关示例

DBSCAN 聚类算法演示

DBSCAN 聚类算法演示

使用 k-means 对文本文档进行聚类

使用 k-means 对文本文档进行聚类

亲和传播聚类算法演示

亲和传播聚类算法演示

使用不同指标的凝聚层次聚类

使用不同指标的凝聚层次聚类

由 Sphinx-Gallery 生成的图库