高斯过程回归器#
- class sklearn.gaussian_process.GaussianProcessRegressor(kernel=None, *, alpha=1e-10, optimizer='fmin_l_bfgs_b', n_restarts_optimizer=0, normalize_y=False, copy_X_train=True, n_targets=None, random_state=None)[source]#
高斯过程回归 (GPR)。
该实现基于[RW2006]的算法2.1。
除了标准的scikit-learn估计器API外,
GaussianProcessRegressor
允许在拟合前进行预测(基于GP先验)
提供了一个附加方法
sample_y(X)
,该方法评估从给定输入的GPR(先验或后验)中抽取的样本公开了一个方法
log_marginal_likelihood(theta)
,该方法可用于其他选择超参数的方法,例如通过马尔可夫链蒙特卡罗法。
要了解点估计方法与更贝叶斯建模方法之间的区别,请参阅名为核岭回归和高斯过程回归的比较的示例。
在用户指南中阅读更多信息。
版本0.18中添加。
- 参数:
- kernelkernel 实例,默认为None
指定GP协方差函数的核。如果传递None,则使用核
ConstantKernel(1.0, constant_value_bounds="fixed") * RBF(1.0, length_scale_bounds="fixed")
作为默认值。 请注意,除非边界标记为“fixed”,否则在拟合过程中会优化核超参数。- alpha浮点数或形状为(n_samples,)的ndarray,默认为1e-10
在拟合过程中添加到核矩阵对角线的值。这可以通过确保计算出的值形成正定矩阵来防止潜在的数值问题。它也可以解释为训练观测值上附加高斯测量噪声的方差。 请注意,这与使用
WhiteKernel
不同。如果传递数组,则它必须与用于拟合的数据具有相同的条目数,并用作数据点相关的噪声水平。允许直接将噪声水平指定为参数主要是为了方便以及与Ridge
保持一致。- optimizer“fmin_l_bfgs_b”,可调用对象或None,默认为“fmin_l_bfgs_b”
可以是用于优化核参数的内部支持优化器之一(由字符串指定),也可以是作为可调用对象传递的外部定义的优化器。如果传递可调用对象,则它必须具有以下签名:
def optimizer(obj_func, initial_theta, bounds): # * 'obj_func': the objective function to be minimized, which # takes the hyperparameters theta as a parameter and an # optional flag eval_gradient, which determines if the # gradient is returned additionally to the function value # * 'initial_theta': the initial value for theta, which can be # used by local optimizers # * 'bounds': the bounds on the values of theta .... # Returned are the best found hyperparameters theta and # the corresponding value of the target function. return theta_opt, func_min
默认情况下,使用
scipy.optimize.minimize
中的L-BFGS-B算法。如果传递None,则核的参数保持不变。 可用的内部优化器为:{'fmin_l_bfgs_b'}
。- n_restarts_optimizerint,默认为0
优化器的重启次数,用于查找最大化对数边际似然的核参数。优化器的第一次运行是从核的初始参数执行的,其余的(如果有的话)是从允许的theta值空间中以对数均匀随机采样的thetas执行的。如果大于0,则所有边界都必须是有限的。请注意,
n_restarts_optimizer == 0
意味着执行一次运行。- normalize_ybool,默认为False
是否通过去除均值并缩放至单位方差来标准化目标值
y
。对于使用零均值、单位方差先验的情况,建议这样做。 请注意,在此实现中,在报告GP预测之前会反转标准化。版本0.23中已更改。
- copy_X_trainbool,默认为True
如果为True,则训练数据的持久副本将存储在对象中。否则,仅存储对训练数据的引用,如果外部修改数据,则可能会导致预测发生变化。
- n_targetsint,默认为None
目标值的维度数。用于决定从先验分布采样时的输出数量(即在
fit
之前调用sample_y
)。调用fit
后,此参数将被忽略。版本1.3中添加。
- random_stateint,RandomState 实例或 None,默认值=None
确定用于初始化中心的随机数生成。在多次函数调用中,传递一个整数以获得可重复的结果。参见 词汇表。
- 属性:
- X_train_形状为 (n_samples, n_features) 的类数组或对象列表
训练数据的特征向量或其他表示(预测也需要)。
- y_train_形状为 (n_samples,) 或 (n_samples, n_targets) 的类数组
训练数据中的目标值(预测也需要)。
- kernel_内核实例
用于预测的内核。内核的结构与作为参数传递的内核相同,但具有优化的超参数。
- L_形状为 (n_samples, n_samples) 的类数组
X_train_
中内核的下三角 Cholesky 分解。- alpha_形状为 (n_samples,) 的类数组
核空间中训练数据点的对偶系数。
- log_marginal_likelihood_value_浮点数
self.kernel_.theta
的对数边际似然。- n_features_in_整数
在 拟合过程中看到的特征数量。
在 0.24 版本中添加。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 在 拟合过程中看到的特征名称。仅当
X
的特征名称全部为字符串时才定义。在 1.0 版本中添加。
另请参见
GaussianProcessClassifier
基于拉普拉斯近似的 Gaussian 过程分类 (GPC)。
参考文献
示例
>>> from sklearn.datasets import make_friedman2 >>> from sklearn.gaussian_process import GaussianProcessRegressor >>> from sklearn.gaussian_process.kernels import DotProduct, WhiteKernel >>> X, y = make_friedman2(n_samples=500, noise=0, random_state=0) >>> kernel = DotProduct() + WhiteKernel() >>> gpr = GaussianProcessRegressor(kernel=kernel, ... random_state=0).fit(X, y) >>> gpr.score(X, y) 0.3680... >>> gpr.predict(X[:2,:], return_std=True) (array([653.0..., 592.1...]), array([316.6..., 316.6...]))
- fit(X, y)[source]#
拟合 Gaussian 过程回归模型。
- 参数:
- X形状为 (n_samples, n_features) 的类数组或对象列表
训练数据的特征向量或其他表示。
- y形状为 (n_samples,) 或 (n_samples, n_targets) 的类数组
目标值。
- 返回值:
- self对象
GaussianProcessRegressor 类实例。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看 用户指南,了解路由机制的工作原理。
- 返回值:
- routingMetadataRequest
一个
MetadataRequest
封装了路由信息。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认为 True
如果为 True,则将返回此估计器和作为估计器的包含子对象的参数。
- 返回值:
- params字典
参数名称映射到它们的值。
- log_marginal_likelihood(theta=None, eval_gradient=False, clone_kernel=True)[source]#
返回训练数据的 theta 的对数边际似然。
- 参数:
- theta形状为 (n_kernel_params,) 的类数组,默认为 None
评估对数边际似然的内核超参数。如果为 None,则返回
self.kernel_.theta
的预计算对数边际似然。- eval_gradient布尔值,默认为 False
如果为 True,则还会返回对数边际似然关于 theta 位置的内核超参数的梯度。如果为 True,则 theta 不能为空。
- clone_kernel布尔值,默认为 True
如果为 True,则复制内核属性。如果为 False,则修改内核属性,但这可能会提高性能。
- 返回值:
- log_likelihood浮点数
训练数据的 theta 的对数边际似然。
- log_likelihood_gradient形状为 (n_kernel_params,) 的 ndarray,可选
对数边际似然关于 theta 位置的内核超参数的梯度。仅当 eval_gradient 为 True 时返回。
- predict(X, return_std=False, return_cov=False)[source]#
使用 Gaussian 过程回归模型进行预测。
我们也可以通过使用 GP 先验基于未拟合模型进行预测。除了预测分布的均值之外,还可以选择返回其标准差(
return_std=True
)或协方差(return_cov=True
)。请注意,最多只能请求两者之一。- 参数:
- X形状为 (n_samples, n_features) 的类数组或对象列表
评估 GP 的查询点。
- return_std布尔值,默认为 False
如果为 True,则预测分布在查询点的标准差将与均值一起返回。
- return_cov布尔值,默认为 False
如果为 True,则联合预测分布在查询点的协方差将与均值一起返回。
- 返回值:
- y_mean形状为 (n_samples,) 或 (n_samples, n_targets) 的 ndarray
查询点处预测分布的均值。
- y_std形状为 (n_samples,) 或 (n_samples, n_targets) 的 ndarray,可选
查询点处预测分布的标准差。仅当
return_std
为 True 时返回。- y_cov形状为 (n_samples, n_samples) 或 (n_samples, n_samples, n_targets) 的 ndarray,可选
查询点处联合预测分布的协方差。仅当
return_cov
为 True 时返回。
- sample_y(X, n_samples=1, random_state=0)[source]#
从高斯过程中抽取样本并在 X 处进行评估。
- 参数:
- X形状为 (n_samples_X, n_features) 的类数组或对象列表
评估 GP 的查询点。
- n_samples整数,默认为 1
从每个查询点的高斯过程中抽取的样本数量。
- random_state整数、RandomState 实例或 None,默认为 0
确定随机数生成以随机抽取样本。传递整数可在多次函数调用中获得可重复的结果。参见 词汇表。
- 返回值:
- y_samples形状为 (n_samples_X, n_samples) 或 (n_samples_X, n_targets, n_samples) 的 ndarray
从高斯过程中抽取的 n_samples 个样本的值,并在查询点处进行评估。
- score(X, y, sample_weight=None)[source]#
返回预测的决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,而 \(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最佳分数为 1.0,但也可能为负值(因为模型可以任意差)。一个始终预测y
期望值的常数模型(忽略输入特征)将获得 0.0 的 \(R^2\) 分数。- 参数:
- X形状为 (n_samples, n_features) 的类数组
测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个形状为
(n_samples, n_samples_fitted)
的泛型对象列表,其中n_samples_fitted
是估计器拟合中使用的样本数。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
X
的真实值。- sample_weight形状为 (n_samples,) 的类数组,默认为 None
样本权重。
- 返回值:
- score浮点数
self.predict(X)
关于y
的 \(R^2\)。
注释
从 0.23 版本开始,在对回归器调用
score
时使用的 \(R^2\) 分数使用multioutput='uniform_average'
,以保持与r2_score
的默认值一致。这会影响所有多输出回归器的score
方法(MultiOutputRegressor
除外)。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单的估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **params字典
估计器参数。
- 返回值:
- self估计器实例
估计器实例。
- set_predict_request(*, return_cov: bool | None | str = '$UNCHANGED$', return_std: bool | None | str = '$UNCHANGED$') GaussianProcessRegressor [source]#
请求传递给
predict
方法的元数据。请注意,只有在
enable_metadata_routing=True
时(参见sklearn.set_config
)此方法才相关。请参阅用户指南,了解路由机制的工作原理。每个参数的选项:
True
:请求元数据,如果提供则传递给predict
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给predict
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求而不用更改其他参数。版本1.3中添加。
注意
仅当此估计器用作元估计器的子估计器时(例如,在
Pipeline
中使用)此方法才相关。否则,它没有效果。- 参数:
- return_covstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED
predict
方法中return_cov
参数的元数据路由。- return_stdstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED
predict
方法中return_std
参数的元数据路由。
- 返回值:
- self对象
更新后的对象。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') GaussianProcessRegressor [source]#
请求传递给
score
方法的元数据。请注意,只有在
enable_metadata_routing=True
时(参见sklearn.set_config
)此方法才相关。请参阅用户指南,了解路由机制的工作原理。每个参数的选项:
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求而不用更改其他参数。版本1.3中添加。
注意
仅当此估计器用作元估计器的子估计器时(例如,在
Pipeline
中使用)此方法才相关。否则,它没有效果。- 参数:
- sample_weightstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回值:
- self对象
更新后的对象。
图库示例#
使用高斯过程回归 (GPR) 预测莫纳罗亚数据集上的 CO2 水平