高斯过程回归 (GPR) 估计数据噪声水平的能力#

此示例展示了 WhiteKernel 估计数据中噪声水平的能力。此外,我们还展示了核超参数初始化的重要性。

# Authors: Jan Hendrik Metzen <[email protected]>
#          Guillaume Lemaitre <[email protected]>
# License: BSD 3 clause

数据生成#

我们将在 X 仅包含一个特征的设置下工作。我们创建一个函数,该函数将生成要预测的目标。我们将添加一个选项,以便向生成的目标添加一些噪声。

import numpy as np


def target_generator(X, add_noise=False):
    target = 0.5 + np.sin(3 * X)
    if add_noise:
        rng = np.random.RandomState(1)
        target += rng.normal(0, 0.3, size=target.shape)
    return target.squeeze()

让我们看一下目标生成器,在该生成器中,我们不会添加任何噪声来观察我们想要预测的信号。

X = np.linspace(0, 5, num=30).reshape(-1, 1)
y = target_generator(X, add_noise=False)
import matplotlib.pyplot as plt

plt.plot(X, y, label="Expected signal")
plt.legend()
plt.xlabel("X")
_ = plt.ylabel("y")
plot gpr noisy

目标是使用正弦函数转换输入 X。现在,我们将生成一些带有噪声的训练样本。为了说明噪声水平,我们将绘制真实信号以及带有噪声的训练样本。

rng = np.random.RandomState(0)
X_train = rng.uniform(0, 5, size=20).reshape(-1, 1)
y_train = target_generator(X_train, add_noise=True)
plt.plot(X, y, label="Expected signal")
plt.scatter(
    x=X_train[:, 0],
    y=y_train,
    color="black",
    alpha=0.4,
    label="Observations",
)
plt.legend()
plt.xlabel("X")
_ = plt.ylabel("y")
plot gpr noisy

GPR 中核超参数的优化#

现在,我们将使用添加了 RBFWhiteKernel 核的加性核来创建一个 GaussianProcessRegressorWhiteKernel 是一个能够估计数据中存在的噪声量的核,而 RBF 将用于拟合数据和目标之间的非线性关系。

但是,我们将展示超参数空间包含多个局部最小值。这将突出显示初始超参数值的重要性。

我们将使用具有高噪声水平和大长度尺度的核来创建一个模型,该模型将通过噪声来解释数据中的所有变化。

from sklearn.gaussian_process import GaussianProcessRegressor
from sklearn.gaussian_process.kernels import RBF, WhiteKernel

kernel = 1.0 * RBF(length_scale=1e1, length_scale_bounds=(1e-2, 1e3)) + WhiteKernel(
    noise_level=1, noise_level_bounds=(1e-5, 1e1)
)
gpr = GaussianProcessRegressor(kernel=kernel, alpha=0.0)
gpr.fit(X_train, y_train)
y_mean, y_std = gpr.predict(X, return_std=True)
/home/circleci/project/sklearn/gaussian_process/kernels.py:452: ConvergenceWarning:

The optimal value found for dimension 0 of parameter k1__k2__length_scale is close to the specified upper bound 1000.0. Increasing the bound and calling fit again may find a better value.
plt.plot(X, y, label="Expected signal")
plt.scatter(x=X_train[:, 0], y=y_train, color="black", alpha=0.4, label="Observations")
plt.errorbar(X, y_mean, y_std)
plt.legend()
plt.xlabel("X")
plt.ylabel("y")
_ = plt.title(
    (
        f"Initial: {kernel}\nOptimum: {gpr.kernel_}\nLog-Marginal-Likelihood: "
        f"{gpr.log_marginal_likelihood(gpr.kernel_.theta)}"
    ),
    fontsize=8,
)
Initial: 1**2 * RBF(length_scale=10) + WhiteKernel(noise_level=1) Optimum: 0.763**2 * RBF(length_scale=1e+03) + WhiteKernel(noise_level=0.525) Log-Marginal-Likelihood: -23.499266455424188

我们看到,找到的最佳核仍然具有较高的噪声水平和更大的长度尺度。此外,我们观察到该模型没有提供可靠的预测。

现在,我们将使用更大的 length_scale 初始化 RBF,并使用更小的噪声水平下限初始化 WhiteKernel

kernel = 1.0 * RBF(length_scale=1e-1, length_scale_bounds=(1e-2, 1e3)) + WhiteKernel(
    noise_level=1e-2, noise_level_bounds=(1e-10, 1e1)
)
gpr = GaussianProcessRegressor(kernel=kernel, alpha=0.0)
gpr.fit(X_train, y_train)
y_mean, y_std = gpr.predict(X, return_std=True)
plt.plot(X, y, label="Expected signal")
plt.scatter(x=X_train[:, 0], y=y_train, color="black", alpha=0.4, label="Observations")
plt.errorbar(X, y_mean, y_std)
plt.legend()
plt.xlabel("X")
plt.ylabel("y")
_ = plt.title(
    (
        f"Initial: {kernel}\nOptimum: {gpr.kernel_}\nLog-Marginal-Likelihood: "
        f"{gpr.log_marginal_likelihood(gpr.kernel_.theta)}"
    ),
    fontsize=8,
)
Initial: 1**2 * RBF(length_scale=0.1) + WhiteKernel(noise_level=0.01) Optimum: 1.05**2 * RBF(length_scale=0.569) + WhiteKernel(noise_level=0.134) Log-Marginal-Likelihood: -18.429732528984054

首先,我们看到该模型的预测比先前模型的预测更精确:这个新模型能够估计无噪声的函数关系。

查看核超参数,我们看到找到的最佳组合比第一个模型具有更小的噪声水平和更短的长度尺度。

我们可以检查 GaussianProcessRegressor 对于不同超参数的对数边际似然 (LML),以了解局部最小值。

from matplotlib.colors import LogNorm

length_scale = np.logspace(-2, 4, num=50)
noise_level = np.logspace(-2, 1, num=50)
length_scale_grid, noise_level_grid = np.meshgrid(length_scale, noise_level)

log_marginal_likelihood = [
    gpr.log_marginal_likelihood(theta=np.log([0.36, scale, noise]))
    for scale, noise in zip(length_scale_grid.ravel(), noise_level_grid.ravel())
]
log_marginal_likelihood = np.reshape(
    log_marginal_likelihood, newshape=noise_level_grid.shape
)
vmin, vmax = (-log_marginal_likelihood).min(), 50
level = np.around(np.logspace(np.log10(vmin), np.log10(vmax), num=50), decimals=1)
plt.contour(
    length_scale_grid,
    noise_level_grid,
    -log_marginal_likelihood,
    levels=level,
    norm=LogNorm(vmin=vmin, vmax=vmax),
)
plt.colorbar()
plt.xscale("log")
plt.yscale("log")
plt.xlabel("Length-scale")
plt.ylabel("Noise-level")
plt.title("Log-marginal-likelihood")
plt.show()
Log-marginal-likelihood

我们看到有两个局部最小值对应于先前找到的超参数组合。根据超参数的初始值,基于梯度的优化可能会收敛到最佳模型或不收敛到最佳模型。因此,重要的是对不同的初始化重复优化几次。

**脚本总运行时间:**(0 分钟 3.029 秒)

相关示例

不同核的先验和后验高斯过程的说明

不同核的先验和后验高斯过程的说明

高斯过程回归:基本入门示例

高斯过程回归:基本入门示例

使用高斯过程分类 (GPC) 进行概率预测

使用高斯过程分类 (GPC) 进行概率预测

XOR 数据集上的高斯过程分类 (GPC) 说明

XOR 数据集上的高斯过程分类 (GPC) 说明

由 Sphinx-Gallery 生成的图库