注意
转到末尾 下载完整的示例代码。或通过JupyterLite或Binder在浏览器中运行此示例
F检验和互信息的比较#
此示例说明了单变量F检验统计量和互信息之间的差异。
我们考虑在[0, 1]上均匀分布的3个特征x_1、x_2、x_3,目标变量y依赖于它们,如下所示:
y = x_1 + sin(6 * pi * x_2) + 0.1 * N(0, 1),即第三个特征完全无关。
以下代码绘制了y与各个x_i以及单变量F检验统计量和互信息的归一化值的依赖关系。
由于F检验仅捕获线性依赖关系,因此它将x_1评为最具区分度的特征。另一方面,互信息可以捕获变量之间的任何类型的依赖关系,它将x_2评为最具区分度的特征,这可能更符合我们对本例的直观认识。两种方法都正确地将x_3标记为无关特征。
# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause
import matplotlib.pyplot as plt
import numpy as np
from sklearn.feature_selection import f_regression, mutual_info_regression
np.random.seed(0)
X = np.random.rand(1000, 3)
y = X[:, 0] + np.sin(6 * np.pi * X[:, 1]) + 0.1 * np.random.randn(1000)
f_test, _ = f_regression(X, y)
f_test /= np.max(f_test)
mi = mutual_info_regression(X, y)
mi /= np.max(mi)
plt.figure(figsize=(15, 5))
for i in range(3):
plt.subplot(1, 3, i + 1)
plt.scatter(X[:, i], y, edgecolor="black", s=20)
plt.xlabel("$x_{}$".format(i + 1), fontsize=14)
if i == 0:
plt.ylabel("$y$", fontsize=14)
plt.title("F-test={:.2f}, MI={:.2f}".format(f_test[i], mi[i]), fontsize=16)
plt.show()
脚本总运行时间:(0分钟0.233秒)
相关示例
使用排列测试分类分数的显著性
聚类性能评估中的偶然性调整
单变量特征选择
网格搜索和连续减半之间的比较