决策树回归器#

class sklearn.tree.DecisionTreeRegressor(*, criterion='squared_error', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, ccp_alpha=0.0, monotonic_cst=None)[source]#

一个决策树回归器。

用户指南中阅读更多。

参数:
criterion{“squared_error”, “friedman_mse”, “absolute_error”, “poisson”},默认值=”squared_error”

用于衡量分割质量的函数。支持的准则包括:“squared_error”代表均方误差,它等同于作为特征选择准则的方差缩减,并使用每个终端节点的均值最小化L2损失;“friedman_mse”使用带有Friedman改进分数的均方误差进行潜在分割;“absolute_error”代表平均绝对误差,它使用每个终端节点的中位数最小化L1损失;以及“poisson”,它使用泊松偏差的平均值减半来寻找分割点。

在版本0.18中新增: 平均绝对误差 (MAE) 准则。

在版本0.24中新增: 泊松偏差准则。

splitter{“best”, “random”},默认值=”best”

用于在每个节点选择分割的策略。支持的策略是“best”用于选择最佳分割,“random”用于选择最佳随机分割。

max_depth整型,默认值=None

树的最大深度。如果为 None,则节点会一直扩展,直到所有叶子节点都纯净,或直到所有叶子节点包含的样本少于 min_samples_split。

关于 max_depth 如何影响模型的示例,请参阅 决策树回归

min_samples_split整型或浮点型,默认值=2

分割内部节点所需的最小样本数

  • 如果为整型,则将 min_samples_split 视为最小样本数。

  • 如果为浮点型,则 min_samples_split 是一个分数,并且 ceil(min_samples_split * n_samples) 是每个分割所需的最小样本数。

在版本0.18中更改: 增加了分数的浮点值。

min_samples_leaf整型或浮点型,默认值=1

在叶节点处所需的最小样本数。任何深度的分割点只有在左右分支中至少保留 min_samples_leaf 个训练样本时才会被考虑。这可能对模型有平滑作用,尤其是在回归中。

  • 如果为整型,则将 min_samples_leaf 视为最小样本数。

  • 如果为浮点型,则 min_samples_leaf 是一个分数,并且 ceil(min_samples_leaf * n_samples) 是每个节点所需的最小样本数。

在版本0.18中更改: 增加了分数的浮点值。

min_weight_fraction_leaf浮点型,默认值=0.0

在叶节点处所需的(所有输入样本)总权重和的最小加权分数。当未提供 sample_weight 时,样本具有相同的权重。

max_features整型、浮点型或 {“sqrt”, “log2”},默认值=None

寻找最佳分割时要考虑的特征数量

  • 如果为整型,则在每次分割时考虑 max_features 个特征。

  • 如果为浮点型,则 max_features 是一个分数,并且在每次分割时考虑 max(1, int(max_features * n_features_in_)) 个特征。

  • 如果为“sqrt”,则 max_features=sqrt(n_features)

  • 如果为“log2”,则 max_features=log2(n_features)

  • 如果为None,则 max_features=n_features

注意:分割点的搜索不会停止,直到找到至少一个有效的节点样本分区,即使这需要实际检查超过 max_features 个特征。

random_state整型,RandomState 实例或 None,默认值=None

控制估计器的随机性。在每次分割时,特征总是随机排列的,即使 splitter 设置为 "best"。当 max_features < n_features 时,算法将在每次分割前随机选择 max_features 个特征,然后从中找到最佳分割。但是,即使 max_features=n_features,找到的最佳分割也可能在不同运行中有所不同。如果多个分割的准则改进相同,并且必须随机选择一个分割,就会出现这种情况。为了在拟合过程中获得确定性行为,random_state 必须固定为一个整数。详情请参阅术语表

max_leaf_nodes整型,默认值=None

以最佳优先方式生长一个具有 max_leaf_nodes 的树。最佳节点被定义为杂质的相对减少。如果为 None,则叶节点数量不限。

min_impurity_decrease浮点型,默认值=0.0

如果分割导致的杂质减少量大于或等于此值,则该节点将被分割。

加权杂质减少方程如下

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

其中 N 是样本总数,N_t 是当前节点的样本数,N_t_L 是左子节点的样本数,N_t_R 是右子节点的样本数。

如果传入 sample_weight,则 NN_tN_t_RN_t_L 都指加权和。

在版本0.19中新增。

ccp_alpha非负浮点型,默认值=0.0

用于最小代价-复杂度剪枝的复杂度参数。将选择代价复杂度小于 ccp_alpha 的最大子树。默认情况下不执行剪枝。有关剪枝过程的详细信息,请参阅最小代价-复杂度剪枝。有关此类剪枝的示例,请参阅使用代价复杂度剪枝对决策树进行后剪枝

在版本0.22中新增。

monotonic_cst形状为 (n_features) 的整型类数组,默认值=None
指示对每个特征施加的单调性约束。
  • 1: 单调递增

  • 0: 无约束

  • -1: 单调递减

如果 monotonic_cst 为 None,则不应用任何约束。

不支持单调性约束的情形:
  • 多输出回归(即当 n_outputs_ > 1 时),

  • 在包含缺失值的数据上训练的回归。

用户指南中阅读更多。

在版本1.4中新增。

属性:
feature_importances_形状为 (n_features,) 的ndarray

返回特征重要性。

max_features_整型

max_features 的推断值。

n_features_in_整型

fit 期间看到的特征数量。

在版本0.24中新增。

feature_names_in_形状为 (n_features_in_,) 的ndarray

fit 期间看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

在版本1.0中新增。

n_outputs_整型

执行 fit 时输出的数量。

tree_Tree 实例

底层的 Tree 对象。请参考 help(sklearn.tree._tree.Tree) 获取 Tree 对象的属性,并参考 理解决策树结构 获取这些属性的基本用法。

另请参阅

DecisionTreeClassifier

一个决策树分类器。

备注

控制树大小的参数(例如 max_depthmin_samples_leaf 等)的默认值会导致完全生长且未剪枝的树,这在某些数据集上可能会非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。

参考文献

[2]

L. Breiman, J. Friedman, R. Olshen, and C. Stone,《分类与回归树》(Classification and Regression Trees),Wadsworth,Belmont,CA,1984。

[3]

T. Hastie, R. Tibshirani and J. Friedman. 《统计学习基础》(Elements of Statistical Learning),Springer,2009。

[4]

L. Breiman, and A. Cutler,《随机森林》(Random Forests),https://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm

示例

>>> from sklearn.datasets import load_diabetes
>>> from sklearn.model_selection import cross_val_score
>>> from sklearn.tree import DecisionTreeRegressor
>>> X, y = load_diabetes(return_X_y=True)
>>> regressor = DecisionTreeRegressor(random_state=0)
>>> cross_val_score(regressor, X, y, cv=10)
...                    
...
array([-0.39, -0.46,  0.02,  0.06, -0.50,
       0.16,  0.11, -0.73, -0.30, -0.00])
apply(X, check_input=True)[source]#

返回每个样本预测到的叶节点的索引。

在版本0.17中新增。

参数:
X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏 csr_matrix

check_input布尔型,默认值=True

允许绕过一些输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
X_leaves形状为 (n_samples,) 的类数组

对于 X 中的每个数据点 x,返回 x 最终所在的叶节点的索引。叶节点在 [0; self.tree_.node_count) 范围内编号,编号中可能存在间隔。

cost_complexity_pruning_path(X, y, sample_weight=None)[source]#

在最小代价-复杂度剪枝期间计算剪枝路径。

有关剪枝过程的详细信息,请参阅最小代价-复杂度剪枝

参数:
X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}

训练输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏 csc_matrix

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

目标值(类别标签),可以是整数或字符串。

sample_weight形状为 (n_samples,) 的类数组,默认值=None

样本权重。如果为 None,则样本权重相等。在每个节点搜索分割时,将忽略会创建净零或负权重子节点的分割。如果分割会导致任一子节点中任何单个类别带有负权重,也会忽略该分割。

返回:
ccp_pathBunch

字典类对象,具有以下属性。

ccp_alphasndarray

剪枝过程中子树的有效 alpha 值。

impuritiesndarray

对应于 ccp_alphas 中 alpha 值的子树叶节点的杂质之和。

decision_path(X, check_input=True)[source]#

返回树中的决策路径。

在版本0.18中新增。

参数:
X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏 csr_matrix

check_input布尔型,默认值=True

允许绕过一些输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
indicator形状为 (n_samples, n_nodes) 的稀疏矩阵

返回一个节点指示器 CSR 矩阵,其中非零元素表示样本通过这些节点。

fit(X, y, sample_weight=None, check_input=True)[source]#

根据训练集 (X, y) 构建一个决策树回归器。

参数:
X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}

训练输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏 csc_matrix

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

目标值(实数)。使用 dtype=np.float64order='C' 以获得最大效率。

sample_weight形状为 (n_samples,) 的类数组,默认值=None

样本权重。如果为 None,则样本权重相等。在每个节点搜索分割时,将忽略会创建净零或负权重子节点的分割。

check_input布尔型,默认值=True

允许绕过一些输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
selfDecisionTreeRegressor

已拟合的估计器。

get_depth()[source]#

返回决策树的深度。

树的深度是根节点和任何叶节点之间的最大距离。

返回:
self.tree_.max_depth整型

树的最大深度。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

返回:
routingMetadataRequest

封装路由信息的 MetadataRequest

get_n_leaves()[source]#

返回决策树的叶节点数量。

返回:
self.tree_.n_leaves整型

叶节点数量。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔型,默认值=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
params字典

参数名称映射到其值。

predict(X, check_input=True)[source]#

预测 X 的类别或回归值。

对于分类模型,返回 X 中每个样本的预测类别。对于回归模型,返回基于 X 的预测值。

参数:
X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}

输入样本。在内部,它将被转换为 dtype=np.float32,如果提供稀疏矩阵,则转换为稀疏 csr_matrix

check_input布尔型,默认值=True

允许绕过一些输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

预测的类别,或预测值。

score(X, y, sample_weight=None)[source]#

返回测试数据上的决定系数

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳可能分数是 1.0,它也可以是负数(因为模型可能任意差)。一个总是预测 y 期望值而不考虑输入特征的常数模型,其 \(R^2\) 分数将为 0.0。

参数:
X形状为 (n_samples, n_features) 的类数组

测试样本。对于某些估计器,这可能是一个预计算的核矩阵,或者是一个通用对象列表,其形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是估计器拟合中使用的样本数量。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

X 的真实值。

sample_weight形状为 (n_samples,) 的类数组,默认值=None

样本权重。

返回:
score浮点型

self.predict(X) 相对于 y\(R^2\) 分数。

备注

在回归器上调用 score 时使用的 \(R^2\) 分数从版本 0.23 开始使用 multioutput='uniform_average',以与 r2_score 的默认值保持一致。这会影响所有多输出回归器(除了 MultiOutputRegressor)的 score 方法。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeRegressor[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时才相关(参阅 sklearn.set_config)。请参阅 用户指南 以了解路由机制的工作原理。

每个参数的选项是

  • True: 请求元数据,如果提供则传递给 fit。如果未提供元数据,则请求将被忽略。

  • False: 不请求元数据,元估计器不会将其传递给 fit

  • None: 不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str: 元数据应使用此给定别名而非原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求,而不更改其他参数。

在版本1.3中新增。

注意

此方法仅在估计器作为元估计器的子估计器使用时才相关,例如在 Pipeline 内部使用时。否则它没有效果。

参数:
sample_weight字符串,True,False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

fit 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeRegressor[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时才相关(参阅 sklearn.set_config)。请参阅 用户指南 以了解路由机制的工作原理。

每个参数的选项是

  • True: 请求元数据,如果提供则传递给 score。如果未提供元数据,则请求将被忽略。

  • False: 不请求元数据,元估计器不会将其传递给 score

  • None: 不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str: 元数据应使用此给定别名而非原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求,而不更改其他参数。

在版本1.3中新增。

注意

此方法仅在估计器作为元估计器的子估计器使用时才相关,例如在 Pipeline 内部使用时。否则它没有效果。

参数:
sample_weight字符串,True,False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

score 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。