GradientBoostingRegressor#

class sklearn.ensemble.GradientBoostingRegressor(*, loss='squared_error', learning_rate=0.1, n_estimators=100, subsample=1.0, criterion='friedman_mse', min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_depth=3, min_impurity_decrease=0.0, init=None, random_state=None, max_features=None, alpha=0.9, verbose=0, max_leaf_nodes=None, warm_start=False, validation_fraction=0.1, n_iter_no_change=None, tol=0.0001, ccp_alpha=0.0)[source]#

用于回归的梯度提升。

该估计器以正向分阶段的方式构建加性模型;它允许优化任意可微分的损失函数。在每个阶段,回归树都根据给定损失函数的负梯度进行拟合。

HistGradientBoostingRegressor 是此算法的一种快得多的变体,适用于中大型数据集(n_samples >= 10_000),并支持单调约束。

更多内容请参阅用户指南

参数
loss{‘squared_error’, ‘absolute_error’, ‘huber’, ‘quantile’},默认值='squared_error'

要优化的损失函数。'squared_error' 指的是回归的平方误差。'absolute_error' 指的是回归的绝对误差,是一个鲁棒的损失函数。'huber' 是两者的结合。'quantile' 允许分位数回归(使用 alpha 指定分位数)。有关使用 loss='quantile' 创建预测区间的示例,请参见 梯度提升回归的预测区间

learning_rate浮点数,默认值=0.1

学习率通过 learning_rate 缩小每棵树的贡献。学习率和估计器数量之间存在权衡。值必须在 [0.0, inf) 范围内。

n_estimators整数,默认值=100

要执行的提升阶段数量。梯度提升对过拟合相当鲁棒,因此通常较大的数量会带来更好的性能。值必须在 [1, inf) 范围内。

subsample浮点数,默认值=1.0

用于拟合单个基础学习器的样本比例。如果小于1.0,则会产生随机梯度提升。subsample 与参数 n_estimators 相互作用。选择 subsample < 1.0 会导致方差减小而偏差增大。值必须在 (0.0, 1.0] 范围内。

criterion{‘friedman_mse’, ‘squared_error’},默认值='friedman_mse'

衡量分裂质量的函数。支持的准则包括“friedman_mse”(带弗里德曼改进分数的均方误差)和“squared_error”(均方误差)。“friedman_mse”的默认值通常是最好的,因为它在某些情况下可以提供更好的近似。

在 0.18 版本中添加。

min_samples_split整数或浮点数,默认值=2

分裂内部节点所需的最小样本数。

  • 如果是整数,值必须在 [2, inf) 范围内。

  • 如果是浮点数,值必须在 (0.0, 1.0] 范围内,并且 min_samples_split 将是 ceil(min_samples_split * n_samples)

在 0.18 版本中更改:添加了浮点数表示分数。

min_samples_leaf整数或浮点数,默认值=1

叶节点所需的最小样本数。只有当分裂点在左右分支中都至少留下 min_samples_leaf 个训练样本时,才会考虑任意深度的分裂点。这可能具有平滑模型的效果,尤其是在回归中。

  • 如果是整数,值必须在 [1, inf) 范围内。

  • 如果是浮点数,值必须在 (0.0, 1.0) 范围内,并且 min_samples_leaf 将是 ceil(min_samples_leaf * n_samples)

在 0.18 版本中更改:添加了浮点数表示分数。

min_weight_fraction_leaf浮点数,默认值=0.0

叶节点所需的(所有输入样本)总权重和的最小加权分数。当未提供 `sample_weight` 时,样本具有相同的权重。值必须在 [0.0, 0.5] 范围内。

max_depth整数或None,默认值=3

单个回归估计器的最大深度。最大深度限制了树中节点的数量。调整此参数以获得最佳性能;最佳值取决于输入变量的交互作用。如果为 None,则节点将扩展,直到所有叶子都纯净或所有叶子包含的样本少于 `min_samples_split`。如果是整数,值必须在 [1, inf) 范围内。

min_impurity_decrease浮点数,默认值=0.0

如果此分裂导致的不纯度减少大于或等于此值,则节点将被分裂。值必须在 [0.0, inf) 范围内。

加权不纯度减少的公式如下:

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

其中 N 是样本总数,N_t 是当前节点的样本数,N_t_L 是左子节点中的样本数,N_t_R 是右子节点中的样本数。

如果传递了 sample_weight,则 NN_tN_t_RN_t_L 都指加权和。

在 0.19 版本中添加。

init估计器或‘zero’,默认值=None

用于计算初始预测的估计器对象。init 必须提供 fitpredict 方法。如果为 'zero',则初始原始预测设置为零。默认情况下,使用 DummyEstimator,预测平均目标值(对于 `loss='squared_error'`)或分位数(对于其他损失)。

random_state整数、RandomState 实例或None,默认值=None

控制每次提升迭代时赋予每个树估计器的随机种子。此外,它还控制每次分裂时特征的随机排列(详见“注意事项”)。如果 `n_iter_no_change` 不为 None,它还控制训练数据的随机分裂以获得验证集。传入一个整数可以在多次函数调用中获得可重现的输出。参见术语表

max_features{‘sqrt’, ‘log2’},整数或浮点数,默认值=None

寻找最佳分裂时要考虑的特征数量

  • 如果是整数,值必须在 [1, inf) 范围内。

  • 如果是浮点数,值必须在 (0.0, 1.0] 范围内,并且每次分裂时考虑的特征将是 max(1, int(max_features * n_features_in_))

  • 如果是“sqrt”,则 max_features=sqrt(n_features)

  • 如果是“log2”,则 max_features=log2(n_features)

  • 如果为 None,则 max_features=n_features

选择 max_features < n_features 会导致方差减小而偏差增大。

注意:即使需要有效检查多于 max_features 个特征,分裂的搜索也不会停止,直到找到至少一个有效的节点样本分区。

alpha浮点数,默认值=0.9

Huber 损失函数和分位数损失函数的 alpha 分位数。仅当 loss='huber'loss='quantile' 时有效。值必须在 (0.0, 1.0) 范围内。

verbose整数,默认值=0

启用详细输出。如果为 1,则会不时打印进度和性能(树越多,频率越低)。如果大于 1,则为每棵树打印进度和性能。值必须在 [0, inf) 范围内。

max_leaf_nodes整数,默认值=None

以最佳优先方式使用 max_leaf_nodes 增长树。最佳节点定义为不纯度的相对减少量。值必须在 [2, inf) 范围内。如果为 None,则叶节点数量不受限制。

warm_start布尔值,默认值=False

当设置为 True 时,重用上次拟合的解决方案并向集成中添加更多估计器;否则,清除之前的解决方案。参见术语表

validation_fraction浮点数,默认值=0.1

用于早期停止而预留作为验证集的训练数据比例。值必须在 (0.0, 1.0) 范围内。仅当 n_iter_no_change 设置为整数时使用。

在 0.20 版本中添加。

n_iter_no_change整数,默认值=None

n_iter_no_change 用于决定当验证分数没有改善时是否使用早期停止来终止训练。默认情况下,它设置为 None 以禁用早期停止。如果设置为一个数字,它将把 validation_fraction 大小的训练数据作为验证集,并在前 n_iter_no_change 次迭代中验证分数都没有改善时终止训练。值必须在 [1, inf) 范围内。参见梯度提升中的早期停止

在 0.20 版本中添加。

tol浮点数,默认值=1e-4

早期停止的容忍度。当损失在 n_iter_no_change 次迭代(如果设置为一个数字)内没有至少改善 `tol` 时,训练停止。值必须在 [0.0, inf) 范围内。

在 0.20 版本中添加。

ccp_alpha非负浮点数,默认值=0.0

用于最小成本复杂性剪枝的复杂性参数。将选择成本复杂性最大但小于 ccp_alpha 的子树。默认情况下,不执行剪枝。值必须在 [0.0, inf) 范围内。有关详细信息,请参见最小成本复杂性剪枝。有关此类剪枝的示例,请参见使用成本复杂性剪枝对决策树进行后剪枝

在 0.22 版本中添加。

属性
n_estimators_整数

估计器的数量,由早期停止选择(如果指定了 n_iter_no_change)。否则,它设置为 n_estimators

n_trees_per_iteration_整数

每次迭代构建的树的数量。对于回归器,这始终为 1。

在 1.4.0 版本中添加。

feature_importances_形状为 (n_features,) 的 ndarray

基于不纯度的特征重要性。

oob_improvement_形状为 (n_estimators,) 的 ndarray

袋外样本损失相对于前一次迭代的改进。oob_improvement_[0] 是第一阶段相对于 init 估计器的损失改进。仅当 subsample < 1.0 时可用。

oob_scores_形状为 (n_estimators,) 的 ndarray

袋外样本损失值的完整历史记录。仅当 subsample < 1.0 时可用。

在 1.3 版本中添加。

oob_score_浮点数

袋外样本损失的最后一个值。它与 oob_scores_[-1] 相同。仅当 subsample < 1.0 时可用。

在 1.3 版本中添加。

train_score_形状为 (n_estimators,) 的 ndarray

第 i 个分数 train_score_[i] 是模型在第 i 次迭代时在袋内样本上的损失。如果 subsample == 1,这表示在训练数据上的损失。

init_估计器

提供初始预测的估计器。通过 init 参数设置。

estimators_形状为 (n_estimators, 1) 的 DecisionTreeRegressor 的 ndarray

已拟合的子估计器集合。

n_features_in_整数

拟合期间看到的特征数量。

在 0.24 版本中添加。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的所有特征名称均为字符串时定义。

在 1.0 版本中添加。

max_features_整数

推断的 max_features 值。

另请参见

HistGradientBoostingRegressor

基于直方图的梯度提升分类树。

sklearn.tree.DecisionTreeRegressor

决策树回归器。

sklearn.ensemble.RandomForestRegressor

随机森林回归器。

注意事项

每次分裂时特征总是随机置换。因此,即使训练数据相同且 max_features=n_features,如果在搜索最佳分裂时列出的多个分裂的准则改进相同,则找到的最佳分裂也可能有所不同。为了在拟合过程中获得确定性行为,必须固定 random_state

参考文献

J. Friedman, 贪婪函数逼近:梯度提升机,《统计年鉴》,第 29 卷,第 5 期,2001 年。

  1. Friedman, 随机梯度提升, 1999

T. Hastie, R. Tibshirani 和 J. Friedman. 统计学习基础(第2版), Springer, 2009.

示例

>>> from sklearn.datasets import make_regression
>>> from sklearn.ensemble import GradientBoostingRegressor
>>> from sklearn.model_selection import train_test_split
>>> X, y = make_regression(random_state=0)
>>> X_train, X_test, y_train, y_test = train_test_split(
...     X, y, random_state=0)
>>> reg = GradientBoostingRegressor(random_state=0)
>>> reg.fit(X_train, y_train)
GradientBoostingRegressor(random_state=0)
>>> reg.predict(X_test[1:2])
array([-61.1])
>>> reg.score(X_test, y_test)
0.4...

有关如何利用 GradientBoostingRegressor 拟合弱预测模型集成的详细示例,请参阅 梯度提升回归

apply(X)[source]#

将集成中的树应用于 X,返回叶子索引。

在 0.17 版本中添加。

参数
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,其数据类型将被转换为 dtype=np.float32。如果提供稀疏矩阵,它将被转换为稀疏的 csr_matrix

返回
X_leaves形状为 (n_samples, n_estimators) 的 array-like

对于 X 中的每个数据点 x 和集成中的每棵树,返回 x 在每个估计器中最终到达的叶子索引。

fit(X, y, sample_weight=None, monitor=None)[source]#

拟合梯度提升模型。

参数
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏的 csr_matrix

y形状为 (n_samples,) 的 array-like

目标值(分类中的字符串或整数,回归中的实数)。对于分类,标签必须与类别对应。

sample_weight形状为 (n_samples,) 的 array-like,默认值=None

样本权重。如果为 None,则样本权重相等。在每个节点中搜索分裂时,将忽略那些会创建净权重为零或负值的子节点的分裂。在分类情况下,如果分裂会导致任何单个类别在任一子节点中带有负权重,也将忽略该分裂。

monitor可调用对象,默认值=None

监视器在每次迭代后被调用,并以当前迭代、估计器引用以及 _fit_stages 的局部变量作为关键字参数 callable(i, self, locals())。如果可调用对象返回 True,则拟合过程停止。监视器可用于多种用途,例如计算保留估计值、早期停止、模型自省和快照。

返回
self对象

已拟合的估计器。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

返回
routingMetadataRequest

封装路由信息的 MetadataRequest

get_params(deep=True)[source]#

获取此估计器的参数。

参数
deep布尔值,默认值=True

如果为 True,将返回此估计器及其包含的估计器子对象的参数。

返回
params字典

参数名称与其值映射。

predict(X)[source]#

预测 X 的回归目标。

参数
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏的 csr_matrix

返回
y形状为 (n_samples,) 的 ndarray

预测值。

score(X, y, sample_weight=None)[source]#

返回测试数据的决定系数

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳可能分数为 1.0,它也可以是负数(因为模型可能任意差)。一个总是预测 y 期望值而不考虑输入特征的常数模型将获得 0.0 的 \(R^2\) 分数。

参数
X形状为 (n_samples, n_features) 的 array-like

测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个通用对象列表,形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是估计器拟合中使用的样本数量。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like

X 的真实值。

sample_weight形状为 (n_samples,) 的 array-like,默认值=None

样本权重。

返回
score浮点数

self.predict(X) 相对于 y\(R^2\) 分数。

注意事项

在回归器上调用 score 时使用的 \(R^2\) 分数从 0.23 版本开始使用 multioutput='uniform_average',以与 r2_score 的默认值保持一致。这会影响所有多输出回归器(MultiOutputRegressor 除外)的 score 方法。

set_fit_request(*, monitor: bool | None | str = '$UNCHANGED$', sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingRegressor[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(参见 sklearn.set_config)。请参阅 用户指南 以了解路由机制的工作原理。

每个参数的选项为:

  • True:请求元数据,如果提供则传递给 fit。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,元估计器不会将其传递给 fit

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

在 1.3 版本中添加。

注意

仅当此估计器用作元估计器(例如,在 Pipeline 内部使用)的子估计器时,此方法才相关。否则,它没有效果。

参数
monitor字符串、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

fit 方法中 monitor 参数的元数据路由。

sample_weight字符串、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

fit 方法中 sample_weight 参数的元数据路由。

返回
self对象

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数
params字典

估计器参数。

返回
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') GradientBoostingRegressor[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(参见 sklearn.set_config)。请参阅 用户指南 以了解路由机制的工作原理。

每个参数的选项为:

  • True:请求元数据,如果提供则传递给 score。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,元估计器不会将其传递给 score

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

在 1.3 版本中添加。

注意

仅当此估计器用作元估计器(例如,在 Pipeline 内部使用)的子估计器时,此方法才相关。否则,它没有效果。

参数
sample_weight字符串、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

score 方法中 sample_weight 参数的元数据路由。

返回
self对象

更新后的对象。

staged_predict(X)[source]#

预测 X 在每个阶段的回归目标。

此方法允许在每个阶段后进行监控(即确定测试集上的误差)。

参数
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏的 csr_matrix

返回(迭代器)
y形状为 (n_samples,) 的 ndarray 生成器

输入样本的预测值。