高斯过程回归器#

class sklearn.gaussian_process.GaussianProcessRegressor(kernel=None, *, alpha=1e-10, optimizer='fmin_l_bfgs_b', n_restarts_optimizer=0, normalize_y=False, copy_X_train=True, n_targets=None, random_state=None)[source]#

高斯过程回归 (GPR)。

该实现基于[RW2006]的算法2.1。

除了标准的scikit-learn估计器API外,GaussianProcessRegressor

  • 允许在拟合前进行预测(基于GP先验)

  • 提供了一个附加方法sample_y(X),该方法评估从给定输入的GPR(先验或后验)中抽取的样本

  • 公开了一个方法log_marginal_likelihood(theta),该方法可用于其他选择超参数的方法,例如通过马尔可夫链蒙特卡罗法。

要了解点估计方法与更贝叶斯建模方法之间的区别,请参阅名为核岭回归和高斯过程回归的比较的示例。

用户指南中阅读更多信息。

版本0.18中添加。

参数:
kernelkernel 实例,默认为None

指定GP协方差函数的核。如果传递None,则使用核ConstantKernel(1.0, constant_value_bounds="fixed") * RBF(1.0, length_scale_bounds="fixed")作为默认值。 请注意,除非边界标记为“fixed”,否则在拟合过程中会优化核超参数。

alpha浮点数或形状为(n_samples,)的ndarray,默认为1e-10

在拟合过程中添加到核矩阵对角线的值。这可以通过确保计算出的值形成正定矩阵来防止潜在的数值问题。它也可以解释为训练观测值上附加高斯测量噪声的方差。 请注意,这与使用WhiteKernel不同。如果传递数组,则它必须与用于拟合的数据具有相同的条目数,并用作数据点相关的噪声水平。允许直接将噪声水平指定为参数主要是为了方便以及与Ridge保持一致。

optimizer“fmin_l_bfgs_b”,可调用对象或None,默认为“fmin_l_bfgs_b”

可以是用于优化核参数的内部支持优化器之一(由字符串指定),也可以是作为可调用对象传递的外部定义的优化器。如果传递可调用对象,则它必须具有以下签名:

def optimizer(obj_func, initial_theta, bounds):
    # * 'obj_func': the objective function to be minimized, which
    #   takes the hyperparameters theta as a parameter and an
    #   optional flag eval_gradient, which determines if the
    #   gradient is returned additionally to the function value
    # * 'initial_theta': the initial value for theta, which can be
    #   used by local optimizers
    # * 'bounds': the bounds on the values of theta
    ....
    # Returned are the best found hyperparameters theta and
    # the corresponding value of the target function.
    return theta_opt, func_min

默认情况下,使用scipy.optimize.minimize中的L-BFGS-B算法。如果传递None,则核的参数保持不变。 可用的内部优化器为:{'fmin_l_bfgs_b'}

n_restarts_optimizerint,默认为0

优化器的重启次数,用于查找最大化对数边际似然的核参数。优化器的第一次运行是从核的初始参数执行的,其余的(如果有的话)是从允许的theta值空间中以对数均匀随机采样的thetas执行的。如果大于0,则所有边界都必须是有限的。请注意,n_restarts_optimizer == 0意味着执行一次运行。

normalize_ybool,默认为False

是否通过去除均值并缩放至单位方差来标准化目标值y。对于使用零均值、单位方差先验的情况,建议这样做。 请注意,在此实现中,在报告GP预测之前会反转标准化。

版本0.23中已更改。

copy_X_trainbool,默认为True

如果为True,则训练数据的持久副本将存储在对象中。否则,仅存储对训练数据的引用,如果外部修改数据,则可能会导致预测发生变化。

n_targetsint,默认为None

目标值的维度数。用于决定从先验分布采样时的输出数量(即在fit之前调用sample_y)。调用fit后,此参数将被忽略。

版本1.3中添加。

random_stateint,RandomState 实例或 None,默认值=None

确定用于初始化中心的随机数生成。在多次函数调用中,传递一个整数以获得可重复的结果。参见 词汇表

属性:
X_train_形状为 (n_samples, n_features) 的类数组或对象列表

训练数据的特征向量或其他表示(预测也需要)。

y_train_形状为 (n_samples,) 或 (n_samples, n_targets) 的类数组

训练数据中的目标值(预测也需要)。

kernel_内核实例

用于预测的内核。内核的结构与作为参数传递的内核相同,但具有优化的超参数。

L_形状为 (n_samples, n_samples) 的类数组

X_train_中内核的下三角 Cholesky 分解。

alpha_形状为 (n_samples,) 的类数组

核空间中训练数据点的对偶系数。

log_marginal_likelihood_value_浮点数

self.kernel_.theta的对数边际似然。

n_features_in_整数

拟合过程中看到的特征数量。

在 0.24 版本中添加。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合过程中看到的特征名称。仅当 X 的特征名称全部为字符串时才定义。

在 1.0 版本中添加。

另请参见

GaussianProcessClassifier

基于拉普拉斯近似的 Gaussian 过程分类 (GPC)。

参考文献

示例

>>> from sklearn.datasets import make_friedman2
>>> from sklearn.gaussian_process import GaussianProcessRegressor
>>> from sklearn.gaussian_process.kernels import DotProduct, WhiteKernel
>>> X, y = make_friedman2(n_samples=500, noise=0, random_state=0)
>>> kernel = DotProduct() + WhiteKernel()
>>> gpr = GaussianProcessRegressor(kernel=kernel,
...         random_state=0).fit(X, y)
>>> gpr.score(X, y)
0.3680...
>>> gpr.predict(X[:2,:], return_std=True)
(array([653.0..., 592.1...]), array([316.6..., 316.6...]))
fit(X, y)[source]#

拟合 Gaussian 过程回归模型。

参数:
X形状为 (n_samples, n_features) 的类数组或对象列表

训练数据的特征向量或其他表示。

y形状为 (n_samples,) 或 (n_samples, n_targets) 的类数组

目标值。

返回值:
self对象

GaussianProcessRegressor 类实例。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看 用户指南,了解路由机制的工作原理。

返回值:
routingMetadataRequest

一个 MetadataRequest 封装了路由信息。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔值,默认为 True

如果为 True,则将返回此估计器和作为估计器的包含子对象的参数。

返回值:
params字典

参数名称映射到它们的值。

log_marginal_likelihood(theta=None, eval_gradient=False, clone_kernel=True)[source]#

返回训练数据的 theta 的对数边际似然。

参数:
theta形状为 (n_kernel_params,) 的类数组,默认为 None

评估对数边际似然的内核超参数。如果为 None,则返回 self.kernel_.theta 的预计算对数边际似然。

eval_gradient布尔值,默认为 False

如果为 True,则还会返回对数边际似然关于 theta 位置的内核超参数的梯度。如果为 True,则 theta 不能为空。

clone_kernel布尔值,默认为 True

如果为 True,则复制内核属性。如果为 False,则修改内核属性,但这可能会提高性能。

返回值:
log_likelihood浮点数

训练数据的 theta 的对数边际似然。

log_likelihood_gradient形状为 (n_kernel_params,) 的 ndarray,可选

对数边际似然关于 theta 位置的内核超参数的梯度。仅当 eval_gradient 为 True 时返回。

predict(X, return_std=False, return_cov=False)[source]#

使用 Gaussian 过程回归模型进行预测。

我们也可以通过使用 GP 先验基于未拟合模型进行预测。除了预测分布的均值之外,还可以选择返回其标准差(return_std=True)或协方差(return_cov=True)。请注意,最多只能请求两者之一。

参数:
X形状为 (n_samples, n_features) 的类数组或对象列表

评估 GP 的查询点。

return_std布尔值,默认为 False

如果为 True,则预测分布在查询点的标准差将与均值一起返回。

return_cov布尔值,默认为 False

如果为 True,则联合预测分布在查询点的协方差将与均值一起返回。

返回值:
y_mean形状为 (n_samples,) 或 (n_samples, n_targets) 的 ndarray

查询点处预测分布的均值。

y_std形状为 (n_samples,) 或 (n_samples, n_targets) 的 ndarray,可选

查询点处预测分布的标准差。仅当 return_std 为 True 时返回。

y_cov形状为 (n_samples, n_samples) 或 (n_samples, n_samples, n_targets) 的 ndarray,可选

查询点处联合预测分布的协方差。仅当 return_cov 为 True 时返回。

sample_y(X, n_samples=1, random_state=0)[source]#

从高斯过程中抽取样本并在 X 处进行评估。

参数:
X形状为 (n_samples_X, n_features) 的类数组或对象列表

评估 GP 的查询点。

n_samples整数,默认为 1

从每个查询点的高斯过程中抽取的样本数量。

random_state整数、RandomState 实例或 None,默认为 0

确定随机数生成以随机抽取样本。传递整数可在多次函数调用中获得可重复的结果。参见 词汇表

返回值:
y_samples形状为 (n_samples_X, n_samples) 或 (n_samples_X, n_targets, n_samples) 的 ndarray

从高斯过程中抽取的 n_samples 个样本的值,并在查询点处进行评估。

score(X, y, sample_weight=None)[source]#

返回预测的决定系数。

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum(),而 \(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳分数为 1.0,但也可能为负值(因为模型可以任意差)。一个始终预测 y 期望值的常数模型(忽略输入特征)将获得 0.0 的 \(R^2\) 分数。

参数:
X形状为 (n_samples, n_features) 的类数组

测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个形状为 (n_samples, n_samples_fitted) 的泛型对象列表,其中 n_samples_fitted 是估计器拟合中使用的样本数。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

X 的真实值。

sample_weight形状为 (n_samples,) 的类数组,默认为 None

样本权重。

返回值:
score浮点数

self.predict(X) 关于 y\(R^2\)

注释

从 0.23 版本开始,在对回归器调用 score 时使用的 \(R^2\) 分数使用 multioutput='uniform_average',以保持与 r2_score 的默认值一致。这会影响所有多输出回归器的 score 方法(MultiOutputRegressor 除外)。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回值:
self估计器实例

估计器实例。

set_predict_request(*, return_cov: bool | None | str = '$UNCHANGED$', return_std: bool | None | str = '$UNCHANGED$') GaussianProcessRegressor[source]#

请求传递给predict方法的元数据。

请注意,只有在enable_metadata_routing=True时(参见sklearn.set_config)此方法才相关。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项:

  • True:请求元数据,如果提供则传递给predict。如果未提供元数据,则忽略请求。

  • False:不请求元数据,元估计器不会将其传递给predict

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应使用此给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不用更改其他参数。

版本1.3中添加。

注意

仅当此估计器用作元估计器的子估计器时(例如,在Pipeline中使用)此方法才相关。否则,它没有效果。

参数:
return_covstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED

predict方法中return_cov参数的元数据路由。

return_stdstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED

predict方法中return_std参数的元数据路由。

返回值:
self对象

更新后的对象。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') GaussianProcessRegressor[source]#

请求传递给score方法的元数据。

请注意,只有在enable_metadata_routing=True时(参见sklearn.set_config)此方法才相关。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项:

  • True:请求元数据,如果提供则传递给score。如果未提供元数据,则忽略请求。

  • False:不请求元数据,元估计器不会将其传递给score

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应使用此给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不用更改其他参数。

版本1.3中添加。

注意

仅当此估计器用作元估计器的子估计器时(例如,在Pipeline中使用)此方法才相关。否则,它没有效果。

参数:
sample_weightstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED

score方法中sample_weight参数的元数据路由。

返回值:
self对象

更新后的对象。