使用 AdaBoost 的决策树回归#

在具有少量高斯噪声的一维正弦数据集上,使用 AdaBoost.R2 [1] 算法对决策树进行提升。将 299 次提升(300 个决策树)与单个决策树回归器进行比较。随着提升次数的增加,回归器可以拟合更多细节。

有关展示使用更高效回归模型(如 HistGradientBoostingRegressor)的好处的示例,请参见直方图梯度提升树中的特征

准备数据#

首先,我们准备具有正弦关系和一些高斯噪声的虚拟数据。

# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause

import numpy as np

rng = np.random.RandomState(1)
X = np.linspace(0, 6, 100)[:, np.newaxis]
y = np.sin(X).ravel() + np.sin(6 * X).ravel() + rng.normal(0, 0.1, X.shape[0])

使用 DecisionTree 和 AdaBoost 回归器进行训练和预测#

现在,我们定义分类器并将其拟合到数据中。然后我们对相同数据进行预测,以查看它们拟合得有多好。第一个回归器是 max_depth=4DecisionTreeRegressor。第二个回归器是 AdaBoostRegressor,以 max_depth=4DecisionTreeRegressor 作为基础学习器,并将使用 n_estimators=300 个这样的基础学习器构建。

from sklearn.ensemble import AdaBoostRegressor
from sklearn.tree import DecisionTreeRegressor

regr_1 = DecisionTreeRegressor(max_depth=4)

regr_2 = AdaBoostRegressor(
    DecisionTreeRegressor(max_depth=4), n_estimators=300, random_state=rng
)

regr_1.fit(X, y)
regr_2.fit(X, y)

y_1 = regr_1.predict(X)
y_2 = regr_2.predict(X)

绘制结果#

最后,我们绘制了我们的两个回归器(单个决策树回归器和 AdaBoost 回归器)如何很好地拟合数据。

import matplotlib.pyplot as plt
import seaborn as sns

colors = sns.color_palette("colorblind")

plt.figure()
plt.scatter(X, y, color=colors[0], label="training samples")
plt.plot(X, y_1, color=colors[1], label="n_estimators=1", linewidth=2)
plt.plot(X, y_2, color=colors[2], label="n_estimators=300", linewidth=2)
plt.xlabel("data")
plt.ylabel("target")
plt.title("Boosted Decision Tree Regression")
plt.legend()
plt.show()
Boosted Decision Tree Regression

脚本总运行时间: (0 分 0.433 秒)

相关示例

决策树回归

决策树回归

绘制 Iris 数据集上决策树集成的决策边界

绘制 Iris 数据集上决策树集成的决策边界

绘制个体和投票回归预测

绘制个体和投票回归预测

使用堆叠组合预测器

使用堆叠组合预测器

由 Sphinx-Gallery 生成的画廊