LDA 和 PCA 对 Iris 数据集的 2D 投影比较#

Iris 数据集代表 3 种鸢尾花(山鸢尾、杂色鸢尾和维吉尼亚鸢尾),具有 4 个属性:萼片长度、萼片宽度、花瓣长度和花瓣宽度。

应用于此数据的 principal component analysis (PCA) 识别出属性的组合(主成分,或特征空间中的方向),这些组合解释了数据中最大的方差。在这里,我们将不同的样本绘制在 2 个主要成分上。

线性判别分析 (LDA) 试图识别解释类间最大方差的属性。特别是,与 PCA 不同,LDA 是一种监督方法,使用已知的类标签。

  • PCA of IRIS dataset
  • LDA of IRIS dataset
explained variance ratio (first two components): [0.92461872 0.05306648]

import matplotlib.pyplot as plt

from sklearn import datasets
from sklearn.decomposition import PCA
from sklearn.discriminant_analysis import LinearDiscriminantAnalysis

iris = datasets.load_iris()

X = iris.data
y = iris.target
target_names = iris.target_names

pca = PCA(n_components=2)
X_r = pca.fit(X).transform(X)

lda = LinearDiscriminantAnalysis(n_components=2)
X_r2 = lda.fit(X, y).transform(X)

# Percentage of variance explained for each components
print(
    "explained variance ratio (first two components): %s"
    % str(pca.explained_variance_ratio_)
)

plt.figure()
colors = ["navy", "turquoise", "darkorange"]
lw = 2

for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(
        X_r[y == i, 0], X_r[y == i, 1], color=color, alpha=0.8, lw=lw, label=target_name
    )
plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("PCA of IRIS dataset")

plt.figure()
for color, i, target_name in zip(colors, [0, 1, 2], target_names):
    plt.scatter(
        X_r2[y == i, 0], X_r2[y == i, 1], alpha=0.8, color=color, label=target_name
    )
plt.legend(loc="best", shadow=False, scatterpoints=1)
plt.title("LDA of IRIS dataset")

plt.show()

脚本的总运行时间:(0 分钟 0.307 秒)

相关示例

Iris 数据集

Iris 数据集

使用邻域成分分析进行降维

使用邻域成分分析进行降维

增量 PCA

增量 PCA

使用 Iris 数据集的 PCA 示例

使用 Iris 数据集的 PCA 示例

由 Sphinx-Gallery 生成的图库