RandomForestRegressor#
- class sklearn.ensemble.RandomForestRegressor(n_estimators=100, *, criterion='squared_error', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=1.0, max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=True, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, ccp_alpha=0.0, max_samples=None, monotonic_cst=None)[source]#
随机森林回归器。
随机森林(Random Forest)是一种元估计器(meta estimator),它在数据集的各种子样本上拟合多个决策树回归器,并使用平均值来提高预测准确性并控制过拟合。森林中的树使用最佳分裂策略,即等同于将
splitter="best"传递给底层的DecisionTreeRegressor。如果bootstrap=True(默认值),子样本大小由max_samples参数控制,否则使用整个数据集来构建每棵树。此估计器原生支持缺失值 (NaNs)。在训练过程中,树生长器会根据潜在增益,在每个分裂点学习具有缺失值的样本应该进入左子节点还是右子节点。在预测时,具有缺失值的样本相应地分配给左子节点或右子节点。如果在训练过程中某个给定特征没有遇到缺失值,那么具有缺失值的样本将被映射到具有最多样本的子节点。
有关基于树的集成模型的比较,请参阅示例 比较随机森林和直方图梯度提升模型。
在用户指南中阅读更多内容。
- 参数:
- n_estimatorsint, default=100
森林中的树的数量。
版本 0.22 中更改:
n_estimators的默认值从 10 更改为 100。- criterion{“squared_error”, “absolute_error”, “friedman_mse”, “poisson”}, default=”squared_error”
用于衡量分裂质量的函数。支持的准则包括:“squared_error”(均方误差),它等同于将方差减小作为特征选择准则,并使用每个终端节点的平均值最小化 L2 损失;“friedman_mse”(Friedman 均方误差),它使用均方误差以及 Friedman 对潜在分裂的改进分数;“absolute_error”(平均绝对误差),它使用每个终端节点的中位数最小化 L1 损失;以及“poisson”(泊松),它使用泊松偏差的减小来寻找分裂。“absolute_error”的训练速度明显慢于“squared_error”。
版本 0.18 新增: 平均绝对误差 (MAE) 标准。
版本 1.0 新增: 泊松准则。
- max_depthint, default=None
树的最大深度。如果为None,则节点会扩展直到所有叶子都是纯的,或者直到所有叶子包含的样本数少于 min_samples_split。
- min_samples_splitint or float, default=2
分割内部节点所需的最小样本数。
如果为 int,则将
min_samples_split视为最小数量。如果为 float,则
min_samples_split是一个分数,ceil(min_samples_split * n_samples)是每次分割的最小样本数。
版本 0.18 更改:添加了分数浮点值。
- min_samples_leafint or float, default=1
叶节点所需的最小样本数。只有当分割点在左右分支中都留下至少
min_samples_leaf个训练样本时,才会考虑该分割点。这可能具有平滑模型的效果,尤其是在回归中。如果为 int,则将
min_samples_leaf视为最小数量。如果为 float,则
min_samples_leaf是一个分数,ceil(min_samples_leaf * n_samples)是每个节点的最小样本数。
版本 0.18 更改:添加了分数浮点值。
- min_weight_fraction_leaffloat, default=0.0
叶节点所需的总权重(所有输入样本的权重总和)的最小加权分数。如果未提供 sample_weight,则样本具有相等的权重。
- max_features{“sqrt”, “log2”, None}, int or float, default=1.0
寻找最佳分割时要考虑的特征数量。
如果为 int,则在每次分割时考虑
max_features个特征。如果为 float,则
max_features是一个分数,max(1, int(max_features * n_features_in_))个特征在每次分割时被考虑。如果为 “sqrt”,则
max_features=sqrt(n_features)。如果为 “log2”,则
max_features=log2(n_features)。如果为 None 或 1.0,则
max_features=n_features。
注意
默认值 1.0 等同于袋装树(bagged trees),通过设置较小的值(例如 0.3)可以实现更大的随机性。
版本 1.1 更改:
max_features的默认值从"auto"更改为 1.0。注意:即使需要有效检查多于
max_features个特征,搜索分割也不会停止,直到找到至少一个有效的节点样本分区。- max_leaf_nodesint, default=None
以最佳优先方式增长树,直到达到
max_leaf_nodes。最佳节点被定义为相对不纯度降低。如果为 None,则叶节点数量不受限制。- min_impurity_decreasefloat, default=0.0
如果此分割导致的不纯度降低大于或等于此值,则该节点将被分割。
加权杂质减少方程如下
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
其中
N是样本总数,N_t是当前节点的样本数,N_t_L是左子节点中的样本数,N_t_R是右子节点中的样本数。如果传递了
sample_weight,则N、N_t、N_t_R和N_t_L都指的是加权和。Added in version 0.19.
- bootstrapbool, default=True
构建树时是否使用 bootstrap 样本。如果为 False,则使用整个数据集来构建每棵树。
- oob_scorebool or callable, default=False
是否使用袋外(out-of-bag)样本来估计泛化分数。默认情况下使用
r2_score。提供一个签名为metric(y_true, y_pred)的可调用对象来使用自定义指标。仅当bootstrap=True时可用。有关袋外(OOB)错误估计的说明,请参见示例随机森林的OOB错误。
- n_jobsint, default=None
并行运行的作业数量。
fit、predict、decision_path和apply都会在树之间并行化。None表示 1,除非在joblib.parallel_backend上下文中使用。-1表示使用所有处理器。有关详细信息,请参阅词汇表。- random_stateint, RandomState instance or None, default=None
控制构建树时使用的样本引导(bootstrap)的随机性(如果
bootstrap=True)以及在每个节点寻找最佳分裂时考虑的特征采样的随机性(如果max_features < n_features)。有关详细信息,请参阅词汇表。- verboseint, default=0
控制拟合和预测时的详细程度。
- warm_startbool, default=False
当设置为
True时,重用上次调用 fit 的结果并向集成中添加更多估计器,否则,拟合一个全新的森林。有关详细信息,请参阅词汇表和拟合额外的树。- ccp_alphanon-negative float, default=0.0
用于最小成本复杂性剪枝的复杂性参数。将选择具有大于
ccp_alpha的最大成本复杂性的子树。默认情况下,不执行剪枝。有关详细信息,请参阅最小成本复杂性剪枝。有关此类剪枝的示例,请参阅使用成本复杂性剪枝对决策树进行后剪枝。版本 0.22 新增。
- max_samplesint or float, default=None
如果 bootstrap 为 True,则从 X 中抽取用于训练每个基本估计器的样本数。
如果为 None(默认),则抽取
X.shape[0]个样本。如果为 int,则抽取
max_samples个样本。如果是浮点数,则抽取
max(round(n_samples * max_samples), 1)个样本。因此,max_samples应在区间(0.0, 1.0]内。
版本 0.22 新增。
- monotonic_cstarray-like of int of shape (n_features), default=None
- 指示要对每个特征施加的单调性约束。
1: 单调递增
0:无约束
-1: 单调递减
如果 monotonic_cst 为 None,则不应用任何约束。
- 单调性约束不支持以下情况:
多输出回归(即当
n_outputs_ > 1时),在具有缺失值的数据上训练的回归。
欲了解更多信息,请阅读 用户指南。
1.4 版本新增。
- 属性:
- estimator_
DecisionTreeRegressor 用于创建已拟合子估计器集合的子估计器模板。
版本 1.2 中新增:
base_estimator_已重命名为estimator_。- estimators_list of DecisionTreeRegressor
已拟合子估计器的集合。
feature_importances_ndarray of shape (n_features,)基于杂质的特征重要性。
- n_features_in_int
在 拟合 期间看到的特征数。
0.24 版本新增。
- feature_names_in_shape 为 (
n_features_in_,) 的 ndarray 在 fit 期间看到的特征名称。仅当
X具有全部为字符串的特征名称时才定义。1.0 版本新增。
- n_outputs_int
执行
fit时的输出数。- oob_score_float
使用袋外估计获得的训练数据集分数。此属性仅当
oob_score为 True 时存在。- oob_prediction_ndarray of shape (n_samples,) or (n_samples, n_outputs)
在训练集上使用袋外估计计算的预测。此属性仅在
oob_score为 True 时存在。estimators_samples_list of arrays每个基本估计器抽取的样本子集。
- estimator_
另请参阅
sklearn.tree.DecisionTreeRegressor决策树回归器。
sklearn.ensemble.ExtraTreesRegressor超随机树回归器集成。
sklearn.ensemble.HistGradientBoostingRegressor一种基于直方图的梯度提升回归树,对于大型数据集(n_samples >= 10_000)非常快。
注意事项
控制树大小的参数(例如
max_depth、min_samples_leaf等)的默认值会导致完全生长的、未剪枝的树,这在某些数据集上可能会非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。在每次分裂时,特征总是随机排列的。因此,即使使用相同的训练数据、
max_features=n_features和bootstrap=False,如果准则的改进对于在寻找最佳分裂过程中枚举的几个分裂是相同的,则找到的最佳分裂可能会有所不同。为了在拟合过程中获得确定性行为,必须固定random_state。默认值
max_features=1.0使用n_features而不是n_features / 3。后者最初在 [1] 中提出,而前者最近在 [2] 中得到经验上的证明。References
[2]P. Geurts, D. Ernst., and L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006.
示例
>>> from sklearn.ensemble import RandomForestRegressor >>> from sklearn.datasets import make_regression >>> X, y = make_regression(n_features=4, n_informative=2, ... random_state=0, shuffle=False) >>> regr = RandomForestRegressor(max_depth=2, random_state=0) >>> regr.fit(X, y) RandomForestRegressor(...) >>> print(regr.predict([[0, 0, 0, 0]])) [-8.32987858]
- apply(X)[source]#
将森林中的树应用于 X,返回叶子索引。
- 参数:
- Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}
输入样本。在内部,其 dtype 将转换为
dtype=np.float32。如果提供了稀疏矩阵,它将转换为稀疏csr_matrix。
- 返回:
- X_leavesndarray of shape (n_samples, n_estimators)
对于 X 中的每个数据点 x 和森林中的每棵树,返回 x 最终所在的叶子的索引。
- decision_path(X)[source]#
返回森林中的决策路径。
版本 0.18 新增。
- 参数:
- Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}
输入样本。在内部,其 dtype 将转换为
dtype=np.float32。如果提供了稀疏矩阵,它将转换为稀疏csr_matrix。
- 返回:
- indicatorsparse matrix of shape (n_samples, n_nodes)
返回节点指示矩阵,其中非零元素指示样本通过的节点。矩阵为 CSR 格式。
- n_nodes_ptrndarray of shape (n_estimators + 1,)
indicator[n_nodes_ptr[i]:n_nodes_ptr[i+1]] 中的列给出第 i 个估计器的指示值。
- fit(X, y, sample_weight=None)[source]#
根据训练集 (X, y) 构建一个树的森林。
- 参数:
- Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}
训练输入样本。在内部,其 dtype 将转换为
dtype=np.float32。如果提供了稀疏矩阵,它将转换为稀疏csc_matrix。- yshape 为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like
目标值(分类中的类别标签,回归中的实数)。
- sample_weightshape 为 (n_samples,) 的 array-like, default=None
样本权重。如果为 None,则样本权重相等。在每个节点中搜索分割时,将忽略会创建净零或负权重子节点的分割。在分类的情况下,如果分割会导致任一子节点中的任何单个类具有负权重,也会忽略该分割。
- 返回:
- selfobject
拟合的估计器。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查阅 用户指南,了解路由机制如何工作。
- 返回:
- routingMetadataRequest
封装路由信息的
MetadataRequest。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deepbool, default=True
如果为 True,将返回此估计器以及包含的子对象(如果它们是估计器)的参数。
- 返回:
- paramsdict
参数名称映射到其值。
- predict(X)[source]#
预测 X 的回归目标。
输入样本的预测回归目标计算为森林中树的平均预测回归目标。
- 参数:
- Xshape 为 (n_samples, n_features) 的 {array-like, sparse matrix}
输入样本。在内部,其 dtype 将转换为
dtype=np.float32。如果提供了稀疏矩阵,它将转换为稀疏csr_matrix。
- 返回:
- yndarray of shape (n_samples,) or (n_samples, n_outputs)
预测值。
- score(X, y, sample_weight=None)[source]#
返回测试数据的 决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum(),\(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()。最佳可能分数为 1.0,它也可以是负数(因为模型可能任意地差)。一个总是预测y期望值而不考虑输入特征的常数模型将获得 0.0 的 \(R^2\) 分数。- 参数:
- Xshape 为 (n_samples, n_features) 的 array-like
测试样本。对于某些估计器,这可能是一个预先计算的核矩阵或一个通用对象列表,形状为
(n_samples, n_samples_fitted),其中n_samples_fitted是用于估计器拟合的样本数。- yshape 为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like
X的真实值。- sample_weightshape 为 (n_samples,) 的 array-like, default=None
样本权重。
- 返回:
- scorefloat
self.predict(X)相对于y的 \(R^2\)。
注意事项
从版本 0.23 开始,调用回归器上的
score时使用的 \(R^2\) 分数使用multioutput='uniform_average',以与r2_score的默认值保持一致。这会影响所有多输出回归器(MultiOutputRegressor除外)的score方法。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') RandomForestRegressor[source]#
配置是否应请求元数据以传递给
fit方法。请注意,此方法仅在以下情况下相关:此估计器用作 元估计器 中的子估计器,并且通过
enable_metadata_routing=True启用了元数据路由(请参阅sklearn.set_config)。请查看 用户指南 以了解路由机制的工作原理。每个参数的选项如下:
True:请求元数据,如果提供则传递给fit。如果未提供元数据,则忽略该请求。False:不请求元数据,元估计器不会将其传递给fit。None:不请求元数据,如果用户提供元数据,元估计器将引发错误。str:应将元数据以给定别名而不是原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。在版本 1.3 中新增。
- 参数:
- sample_weightstr, True, False, or None, default=sklearn.utils.metadata_routing.UNCHANGED
fit方法中sample_weight参数的元数据路由。
- 返回:
- selfobject
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单的估计器以及嵌套对象(如
Pipeline)。后者具有<component>__<parameter>形式的参数,以便可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计器参数。
- 返回:
- selfestimator instance
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') RandomForestRegressor[source]#
配置是否应请求元数据以传递给
score方法。请注意,此方法仅在以下情况下相关:此估计器用作 元估计器 中的子估计器,并且通过
enable_metadata_routing=True启用了元数据路由(请参阅sklearn.set_config)。请查看 用户指南 以了解路由机制的工作原理。每个参数的选项如下:
True:请求元数据,如果提供则传递给score。如果未提供元数据,则忽略该请求。False:不请求元数据,元估计器不会将其传递给score。None:不请求元数据,如果用户提供元数据,元估计器将引发错误。str:应将元数据以给定别名而不是原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。在版本 1.3 中新增。
- 参数:
- sample_weightstr, True, False, or None, default=sklearn.utils.metadata_routing.UNCHANGED
score方法中sample_weight参数的元数据路由。
- 返回:
- selfobject
更新后的对象。