ExtraTreesRegressor#

class sklearn.ensemble.ExtraTreesRegressor(n_estimators=100, *, criterion='squared_error', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=1.0, max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=False, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, ccp_alpha=0.0, max_samples=None, monotonic_cst=None)[source]#

一个极限随机树回归器。

此类实现了一个元估计器,它在数据集的各种子样本上拟合多个随机决策树(又称极限随机树),并通过平均来提高预测精度并控制过拟合。

该估计器原生支持随机分裂中的缺失值 (NaNs)。在训练期间,将选择一个随机阈值来分裂非缺失值。然后,非缺失值将根据随机选择的阈值发送到左子节点和右子节点,而缺失值也将随机发送到左子节点或右子节点。每个分裂点所考虑的每个特征都重复此过程。从中选择最佳分裂。

用户指南中阅读更多内容。

参数:
n_estimatorsint, 默认值=100

森林中的树木数量。

0.22 版本中的变更: n_estimators 的默认值从 0.22 版本中的 10 变为 100。

criterion{“squared_error”, “absolute_error”, “friedman_mse”, “poisson”}, 默认值=”squared_error”

衡量分裂质量的函数。支持的准则包括:“squared_error”用于均方误差,它等同于作为特征选择准则的方差减少,并使用每个终端节点的均值最小化 L2 损失;“friedman_mse”使用均方误差与 Friedman 的改进分数来寻找潜在分裂;“absolute_error”用于平均绝对误差,它使用每个终端节点的中位数最小化 L1 损失;以及“poisson”使用泊松偏差的减少来寻找分裂。使用“absolute_error”进行训练比使用“squared_error”显著慢。

0.18 版本新增: 平均绝对误差 (MAE) 准则。

max_depthint, 默认值=None

树的最大深度。如果为 None,则节点将一直扩展,直到所有叶子都纯净或所有叶子包含的样本少于 min_samples_split。

min_samples_splitint 或 float, 默认值=2

分裂内部节点所需的最小样本数

  • 如果为 int,则 min_samples_split 为最小数量。

  • 如果为 float,则 min_samples_split 是一个分数,每个分裂点所需的最小样本数为 ceil(min_samples_split * n_samples)

0.18 版本中的变更: 添加了分数的浮点值。

min_samples_leafint 或 float, 默认值=1

叶节点所需的最小样本数。任何深度的分裂点只有在左右分支中都至少留下 min_samples_leaf 训练样本时才会被考虑。这可能对模型有平滑作用,尤其是在回归中。

  • 如果为 int,则 min_samples_leaf 为最小数量。

  • 如果为 float,则 min_samples_leaf 是一个分数,每个节点所需的最小样本数为 ceil(min_samples_leaf * n_samples)

0.18 版本中的变更: 添加了分数的浮点值。

min_weight_fraction_leaffloat, 默认值=0.0

叶节点所需的(所有输入样本)总权重和的最小加权分数。如果未提供 sample_weight,则样本具有相同的权重。

max_features{“sqrt”, “log2”, None}, int 或 float, 默认值=1.0

寻找最佳分裂时考虑的特征数量

  • 如果为 int,则每个分裂点考虑 max_features 个特征。

  • 如果为 float,则 max_features 是一个分数,每个分裂点考虑 max(1, int(max_features * n_features_in_)) 个特征。

  • 如果为“sqrt”,则 max_features=sqrt(n_features)

  • 如果为“log2”,则 max_features=log2(n_features)

  • 如果为 None 或 1.0,则 max_features=n_features

注意

默认值 1.0 等同于 bagging 树,可以通过设置较小的值(例如 0.3)来实现更多的随机性。

1.1 版本中的变更: max_features 的默认值从 "auto" 变为 1.0。

注意:分裂点的搜索不会停止,直到找到至少一个有效的节点样本分区,即使这需要实际检查超过 max_features 个特征。

max_leaf_nodesint, 默认值=None

以最优优先方式增长具有 max_leaf_nodes 的树。最优节点定义为杂质的相对减少。如果为 None 则叶节点数量不受限制。

min_impurity_decreasefloat, 默认值=0.0

如果分裂导致的杂质减少量大于或等于此值,则该节点将被分裂。

加权杂质减少方程如下

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

其中 N 是样本总数,N_t 是当前节点的样本数,N_t_L 是左子节点的样本数,N_t_R 是右子节点的样本数。

如果传递了 sample_weight,则 NN_tN_t_RN_t_L 都指加权和。

0.19 版本新增。

bootstrapbool, 默认值=False

构建树时是否使用 bootstrap 样本。如果为 False,则使用整个数据集来构建每棵树。

oob_scorebool 或 callable, 默认值=False

是否使用袋外样本估计泛化得分。默认情况下,使用 r2_score。提供一个签名为 metric(y_true, y_pred) 的可调用对象以使用自定义指标。仅当 bootstrap=True 时可用。

n_jobsint, 默认值=None

并行运行的作业数量。fitpredictdecision_pathapply 都可以在树之间并行化。None 表示 1,除非在 joblib.parallel_backend 上下文中。-1 表示使用所有处理器。有关更多详细信息,请参阅术语表

random_stateint, RandomState 实例 或 None, 默认值=None

控制 3 种随机性来源

  • 构建树时使用的样本的自举(如果 bootstrap=True

  • 在每个节点寻找最佳分裂时考虑的特征采样(如果 max_features < n_features

  • 每个 max_features 的分裂抽取

有关详细信息,请参阅术语表

verboseint, 默认值=0

控制拟合和预测时的详细程度。

warm_startbool, 默认值=False

当设置为 True 时,重用上次调用 fit 的解决方案并向集成中添加更多估计器,否则,将拟合一个新的完整森林。有关详细信息,请参阅术语表拟合额外树

ccp_alpha非负浮点数, 默认值=0.0

用于最小成本复杂度剪枝的复杂度参数。将选择成本复杂度最大且小于 ccp_alpha 的子树。默认情况下,不执行剪枝。有关详细信息,请参阅最小成本复杂度剪枝。有关此类剪枝的示例,请参阅使用成本复杂度剪枝对决策树进行后剪枝

0.22 版本新增。

max_samplesint 或 float, 默认值=None

如果 bootstrap 为 True,则从 X 中抽取的样本数量,用于训练每个基本估计器。

  • 如果为 None(默认),则抽取 X.shape[0] 个样本。

  • 如果为 int,则抽取 max_samples 个样本。

  • 如果为 float,则抽取 max_samples * X.shape[0] 个样本。因此,max_samples 应在区间 (0.0, 1.0] 内。

0.22 版本新增。

monotonic_cst形状为 (n_features) 的 int 数组, 默认值=None
指示对每个特征施加的单调性约束。
  • 1: 单调递增

  • 0: 无约束

  • -1: 单调递减

如果 monotonic_cst 为 None,则不应用任何约束。

单调性约束不支持以下情况:
  • 多输出回归(即当 n_outputs_ > 1 时),

  • 在包含缺失值的数据上训练的回归。

用户指南中阅读更多内容。

1.4 版本新增。

属性:
estimator_ExtraTreeRegressor

用于创建拟合子估计器集合的子估计器模板。

1.2 版本新增: base_estimator_ 已重命名为 estimator_

estimators_DecisionTreeRegressor 列表

拟合的子估计器集合。

feature_importances_形状为 (n_features,) 的 ndarray

基于杂质的特征重要性。

n_features_in_int

fit 期间看到的特征数量。

0.24 版本新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

fit 期间看到的特征名称。仅当 X 的所有特征名称都是字符串时才定义。

1.0 版本新增。

n_outputs_int

输出数量。

oob_score_float

使用袋外估计获得的训练数据集的分数。此属性仅当 oob_score 为 True 时存在。

oob_prediction_形状为 (n_samples,) 或 (n_samples, n_outputs) 的 ndarray

在训练集上使用袋外估计计算的预测。此属性仅当 oob_score 为 True 时存在。

estimators_samples_数组列表

每个基本估计器抽取的样本子集。

另请参阅

ExtraTreesClassifier

一个带有随机分裂的极限随机树分类器。

RandomForestClassifier

一个带有最优分裂的随机森林分类器。

RandomForestRegressor

使用具有最优分裂的树的集成回归器。

备注

控制树大小的参数(例如 max_depthmin_samples_leaf 等)的默认值会导致完全生长且未剪枝的树,这在某些数据集上可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。

参考文献

[1]

P. Geurts, D. Ernst., and L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006。

示例

>>> from sklearn.datasets import load_diabetes
>>> from sklearn.model_selection import train_test_split
>>> from sklearn.ensemble import ExtraTreesRegressor
>>> X, y = load_diabetes(return_X_y=True)
>>> X_train, X_test, y_train, y_test = train_test_split(
...     X, y, random_state=0)
>>> reg = ExtraTreesRegressor(n_estimators=100, random_state=0).fit(
...    X_train, y_train)
>>> reg.score(X_test, y_test)
0.2727...
apply(X)[source]#

将森林中的树应用于 X,返回叶节点索引。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,其 dtype 将转换为 dtype=np.float32。如果提供了稀疏矩阵,它将被转换为稀疏 csr_matrix

返回:
X_leaves形状为 (n_samples, n_estimators) 的 ndarray

对于 X 中的每个数据点 x 和森林中的每棵树,返回 x 最终所在的叶节点索引。

decision_path(X)[source]#

返回森林中的决策路径。

0.18 版本新增。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,其 dtype 将转换为 dtype=np.float32。如果提供了稀疏矩阵,它将被转换为稀疏 csr_matrix

返回:
indicator形状为 (n_samples, n_nodes) 的稀疏矩阵

返回一个节点指示矩阵,其中非零元素表示样本经过这些节点。该矩阵为 CSR 格式。

n_nodes_ptr形状为 (n_estimators + 1,) 的 ndarray

indicator[n_nodes_ptr[i]:n_nodes_ptr[i+1]] 的列给出第 i 个估计器的指示值。

fit(X, y, sample_weight=None)[source]#

根据训练集 (X, y) 构建一个树的森林。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

训练输入样本。在内部,其 dtype 将转换为 dtype=np.float32。如果提供了稀疏矩阵,它将被转换为稀疏 csc_matrix

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like

目标值(分类中的类别标签,回归中的实数)。

sample_weight形状为 (n_samples,) 的 array-like, 默认值=None

样本权重。如果为 None,则样本权重相等。在每个节点中寻找分裂点时,如果分裂会导致子节点的净权重为零或负,则忽略该分裂。在分类情况下,如果分裂会导致任一子节点中任何单个类别带有负权重,则也忽略该分裂。

返回:
selfobject

拟合的估计器。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查阅用户指南以了解路由机制的工作原理。

返回:
routingMetadataRequest

一个封装路由信息的 MetadataRequest

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deepbool, 默认值=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
paramsdict

参数名称映射到其值。

predict(X)[source]#

预测 X 的回归目标。

输入样本的预测回归目标计算为森林中树木的平均预测回归目标。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,其 dtype 将转换为 dtype=np.float32。如果提供了稀疏矩阵,它将被转换为稀疏 csr_matrix

返回:
y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 ndarray

预测值。

score(X, y, sample_weight=None)[source]#

返回测试数据的决定系数

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳可能分数为 1.0,并且可能为负值(因为模型可能任意糟糕)。一个总是预测 y 的期望值,而不考虑输入特征的常数模型,其 \(R^2\) 分数将为 0.0。

参数:
X形状为 (n_samples, n_features) 的 array-like

测试样本。对于某些估计器,这可能是一个预计算的核矩阵,或者是一个通用对象列表,形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是估计器拟合中使用的样本数量。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like

X 的真实值。

sample_weight形状为 (n_samples,) 的 array-like, 默认值=None

样本权重。

返回:
scorefloat

相对于 yself.predict(X)\(R^2\)

备注

在回归器上调用 score 时使用的 \(R^2\) 分数从 0.23 版本开始使用 multioutput='uniform_average',以与 r2_score 的默认值保持一致。这影响了所有多输出回归器(除了 MultiOutputRegressor)的 score 方法。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreesRegressor[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅当 enable_metadata_routing=True 时才相关(参阅 sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为

  • True: 请求元数据,如果提供,则传递给 fit。如果未提供元数据,则忽略请求。

  • False: 不请求元数据,元估计器不会将其传递给 fit

  • None: 不请求元数据,如果用户提供,元估计器将引发错误。

  • str: 元数据应使用此给定别名而不是原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用。否则,它没有效果。

参数:
sample_weightstr, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

fitsample_weight 参数的元数据路由。

返回:
selfobject

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreesRegressor[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅当 enable_metadata_routing=True 时才相关(参阅 sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为

  • True: 请求元数据,如果提供,则传递给 score。如果未提供元数据,则忽略请求。

  • False: 不请求元数据,元估计器不会将其传递给 score

  • None: 不请求元数据,如果用户提供,元估计器将引发错误。

  • str: 元数据应使用此给定别名而不是原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用。否则,它没有效果。

参数:
sample_weightstr, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

scoresample_weight 参数的元数据路由。

返回:
selfobject

更新后的对象。