ExtraTreeRegressor#
- class sklearn.tree.ExtraTreeRegressor(*, criterion='squared_error', splitter='random', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=1.0, random_state=None, min_impurity_decrease=0.0, max_leaf_nodes=None, ccp_alpha=0.0, monotonic_cst=None)[source]#
一个极其随机的树回归器。
极端随机树(Extra-trees)与经典决策树的构建方式不同。在寻找最佳分割来将节点样本分成两组时,会从随机选择的
max_features
个特征中为每个特征绘制随机分割,然后选择其中最佳的分割。当max_features
设置为 1 时,这等同于构建一个完全随机的决策树。警告:极端随机树(Extra-trees)仅应在集成方法中使用。
在 用户指南 中阅读更多内容。
- 参数:
- criterion{“squared_error”, “friedman_mse”, “absolute_error”, “poisson”},默认值=”squared_error”
衡量分割质量的函数。支持的准则包括“squared_error”用于均方误差,它等同于作为特征选择准则的方差减少,并使用每个终端节点的均值来最小化 L2 损失;“friedman_mse”,它使用均方误差与 Friedman 的改进分数进行潜在分割;“absolute_error”用于平均绝对误差,它使用每个终端节点的中位数来最小化 L1 损失;以及“poisson”,它使用泊松偏差的减少来寻找分割。
0.18 版本新增:平均绝对误差 (MAE) 准则。
0.24 版本新增:泊松偏差准则。
- splitter{“random”, “best”},默认值=”random”
在每个节点选择分割的策略。支持的策略有“best”选择最佳分割和“random”选择最佳随机分割。
- max_depth整数,默认值=None
树的最大深度。如果为 None,则节点会一直扩展,直到所有叶子都是纯的,或者所有叶子包含的样本数少于 min_samples_split。
- min_samples_split整数或浮点数,默认值=2
分割内部节点所需的最小样本数
如果为整数,则
min_samples_split
作为最小数量。如果为浮点数,则
min_samples_split
是一个分数,每个分割所需的最小样本数为ceil(min_samples_split * n_samples)
。
0.18 版本更改:为分数添加了浮点值。
- min_samples_leaf整数或浮点数,默认值=1
叶节点所需的最小样本数。只有当分割在左右分支中至少留下
min_samples_leaf
个训练样本时,才会考虑任意深度的分割点。这可能会使模型更平滑,尤其是在回归中。如果为整数,则
min_samples_leaf
作为最小数量。如果为浮点数,则
min_samples_leaf
是一个分数,每个节点所需的最小样本数为ceil(min_samples_leaf * n_samples)
。
0.18 版本更改:为分数添加了浮点值。
- min_weight_fraction_leaf浮点数,默认值=0.0
叶节点所需的总权重(所有输入样本的权重之和)的最小加权分数。未提供 sample_weight 时,样本权重相等。
- max_features整数,浮点数,{“sqrt”,“log2”} 或 None,默认值=1.0
寻找最佳分割时要考虑的特征数量
如果为整数,则在每次分割时考虑
max_features
个特征。如果为浮点数,则
max_features
是一个分数,每次分割时考虑的特征数为max(1, int(max_features * n_features_in_))
。如果为“sqrt”,则
max_features=sqrt(n_features)
。如果为“log2”,则
max_features=log2(n_features)
。如果为 None,则
max_features=n_features
。
1.1 版本更改:
max_features
的默认值从"auto"
更改为1.0
。注意:分割的搜索不会停止,直到找到至少一个有效的节点样本分区,即使这需要实际检查超过
max_features
个特征。- random_state整数,RandomState 实例或 None,默认值=None
用于随机选择每次分割时使用的
max_features
。详见 术语表。- min_impurity_decrease浮点数,默认值=0.0
如果此分割导致的杂质减少量大于或等于此值,则节点将被分割。
加权杂质减少方程如下
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
其中
N
是总样本数,N_t
是当前节点的样本数,N_t_L
是左子节点的样本数,N_t_R
是右子节点的样本数。如果传递了
sample_weight
,则N
、N_t
、N_t_R
和N_t_L
都指加权和。0.19 版本新增。
- max_leaf_nodes整数,默认值=None
以最佳优先的方式生长具有
max_leaf_nodes
的树。最佳节点定义为杂质的相对减少量。如果为 None,则叶节点数量不受限制。- ccp_alpha非负浮点数,默认值=0.0
用于最小成本-复杂度剪枝的复杂度参数。将选择成本复杂度最大且小于
ccp_alpha
的子树。默认情况下,不执行剪枝。详见 最小成本-复杂度剪枝。有关此类剪枝的示例,请参见 使用成本复杂度剪枝对决策树进行后剪枝。0.22 版本新增。
- monotonic_cst形状为 (n_features) 的整数数组状对象,默认值=None
- 指示对每个特征施加的单调性约束。
1:单调递增
0:无约束
-1:单调递减
如果 monotonic_cst 为 None,则不应用任何约束。
- 不支持单调性约束的场景:
多输出回归(即当
n_outputs_ > 1
时),在包含缺失值的数据上训练的回归。
在 用户指南 中阅读更多内容。
1.4 版本新增。
- 属性:
- max_features_整数
max_features 的推断值。
- n_features_in_整数
在 fit 期间看到的特征数量。
0.24 版本新增。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 在 fit 期间看到的特征名称。仅当
X
的所有特征名称均为字符串时才定义。1.0 版本新增。
feature_importances_
形状为 (n_features,) 的 ndarray返回特征重要性。
- n_outputs_整数
执行
fit
时的输出数量。- tree_Tree 实例
底层的 Tree 对象。请参考
help(sklearn.tree._tree.Tree)
了解 Tree 对象的属性,并参考 理解决策树结构 了解这些属性的基本用法。
另请参见
ExtraTreeClassifier
一个极其随机的树分类器。
sklearn.ensemble.ExtraTreesClassifier
一个极端随机森林分类器。
sklearn.ensemble.ExtraTreesRegressor
一个极端随机森林回归器。
备注
控制树大小的参数(例如
max_depth
、min_samples_leaf
等)的默认值会导致树完全生长且未经剪枝,这在某些数据集上可能变得非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。参考文献
[1]P. Geurts, D. Ernst., 和 L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006。
示例
>>> from sklearn.datasets import load_diabetes >>> from sklearn.model_selection import train_test_split >>> from sklearn.ensemble import BaggingRegressor >>> from sklearn.tree import ExtraTreeRegressor >>> X, y = load_diabetes(return_X_y=True) >>> X_train, X_test, y_train, y_test = train_test_split( ... X, y, random_state=0) >>> extra_tree = ExtraTreeRegressor(random_state=0) >>> reg = BaggingRegressor(extra_tree, random_state=0).fit( ... X_train, y_train) >>> reg.score(X_test, y_test) 0.33
- apply(X, check_input=True)[source]#
返回每个样本预测到的叶节点的索引。
0.17 版本新增。
- 参数:
- X形状为 (n_samples, n_features) 的 {数组状对象,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
,如果提供稀疏矩阵,则转换为稀疏的csr_matrix
。- check_input布尔值,默认值=True
允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。
- 返回:
- X_leaves形状为 (n_samples,) 的数组状对象
对于 X 中的每个数据点 x,返回 x 最终所在的叶节点的索引。叶节点在
[0; self.tree_.node_count)
范围内编号,编号可能存在间隙。
- cost_complexity_pruning_path(X, y, sample_weight=None)[source]#
在最小成本-复杂度剪枝期间计算剪枝路径。
有关剪枝过程的详细信息,请参见 最小成本-复杂度剪枝。
- 参数:
- X形状为 (n_samples, n_features) 的 {数组状对象,稀疏矩阵}
训练输入样本。在内部,它将被转换为
dtype=np.float32
,如果提供稀疏矩阵,则转换为稀疏的csc_matrix
。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的数组状对象
目标值(类别标签),可以是整数或字符串。
- sample_weight形状为 (n_samples,) 的数组状对象,默认值=None
样本权重。如果为 None,则样本权重相等。在每个节点搜索分割时,如果分割会创建净权重为零或负的子节点,则忽略这些分割。如果分割会导致任何单个类别在任一子节点中带有负权重,则也会忽略这些分割。
- 返回:
- ccp_path
Bunch
字典状对象,具有以下属性。
- ccp_alphasndarray
剪枝过程中子树的有效 alpha 值。
- impuritiesndarray
对应
ccp_alphas
中 alpha 值的子树叶节点的杂质总和。
- ccp_path
- decision_path(X, check_input=True)[source]#
返回树中的决策路径。
0.18 版本新增。
- 参数:
- X形状为 (n_samples, n_features) 的 {数组状对象,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
,如果提供稀疏矩阵,则转换为稀疏的csr_matrix
。- check_input布尔值,默认值=True
允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。
- 返回:
- indicator形状为 (n_samples, n_nodes) 的稀疏矩阵
返回一个节点指示器 CSR 矩阵,其中非零元素表示样本通过这些节点。
- fit(X, y, sample_weight=None, check_input=True)[source]#
从训练集 (X, y) 构建一个决策树回归器。
- 参数:
- X形状为 (n_samples, n_features) 的 {数组状对象,稀疏矩阵}
训练输入样本。在内部,它将被转换为
dtype=np.float32
,如果提供稀疏矩阵,则转换为稀疏的csc_matrix
。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的数组状对象
目标值(实数)。使用
dtype=np.float64
和order='C'
以获得最大效率。- sample_weight形状为 (n_samples,) 的数组状对象,默认值=None
样本权重。如果为 None,则样本权重相等。在每个节点搜索分割时,如果分割会创建净权重为零或负的子节点,则忽略这些分割。
- check_input布尔值,默认值=True
允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。
- 返回:
- selfDecisionTreeRegressor
已拟合的估计器。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看 用户指南 了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个封装了路由信息的
MetadataRequest
。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认值=True
如果为 True,将返回此估计器及其包含的子对象(如果它们是估计器)的参数。
- 返回:
- paramsdict
参数名称及其对应值的映射。
- predict(X, check_input=True)[source]#
预测 X 的类别或回归值。
对于分类模型,返回 X 中每个样本的预测类别。对于回归模型,返回基于 X 的预测值。
- 参数:
- X形状为 (n_samples, n_features) 的 {数组状对象,稀疏矩阵}
输入样本。在内部,它将被转换为
dtype=np.float32
,如果提供稀疏矩阵,则转换为稀疏的csr_matrix
。- check_input布尔值,默认值=True
允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。
- 返回:
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的数组状对象
预测的类别,或预测值。
- score(X, y, sample_weight=None)[source]#
返回测试数据上的 决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,\(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最佳可能得分为 1.0,它也可以是负数(因为模型可能任意地差)。一个总是预测y
期望值(不考虑输入特征)的常数模型将获得 0.0 的 \(R^2\) 分数。- 参数:
- X形状为 (n_samples, n_features) 的数组状对象
测试样本。对于某些估计器,这可能是一个预计算的核矩阵或通用对象列表,形状为
(n_samples, n_samples_fitted)
,其中n_samples_fitted
是估计器拟合中使用的样本数量。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的数组状对象
X
的真实值。- sample_weight形状为 (n_samples,) 的数组状对象,默认值=None
样本权重。
- 返回:
- score浮点数
相对于
y
的self.predict(X)
的 \(R^2\)。
备注
在回归器上调用
score
时使用的 \(R^2\) 分数从 0.23 版本开始使用multioutput='uniform_average'
,以与r2_score
的默认值保持一致。这会影响所有多输出回归器的score
方法(MultiOutputRegressor
除外)。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreeRegressor [source]#
请求传递给
fit
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时才相关(参见sklearn.set_config
)。请查看 用户指南 了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略该请求。False
:不请求元数据,元估计器不会将其传递给fit
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:应将元数据以给定别名而非原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED
) 保留现有请求。这允许您更改某些参数的请求,而不更改其他参数。1.3 版本新增。
注意
此方法仅在将此估计器用作元估计器的子估计器时才相关,例如在
Pipeline
内部使用时。否则它没有效果。- 参数:
- sample_weight字符串,True,False,或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
fit
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,以便可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreeRegressor [source]#
请求传递给
score
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时才相关(参见sklearn.set_config
)。请查看 用户指南 了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略该请求。False
:不请求元数据,元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:应将元数据以给定别名而非原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED
) 保留现有请求。这允许您更改某些参数的请求,而不更改其他参数。1.3 版本新增。
注意
此方法仅在将此估计器用作元估计器的子估计器时才相关,例如在
Pipeline
内部使用时。否则它没有效果。- 参数:
- sample_weight字符串,True,False,或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。