ExtraTreesRegressor#
- class sklearn.ensemble.ExtraTreesRegressor(n_estimators=100, *, criterion='squared_error', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=1.0, max_leaf_nodes=None, min_impurity_decrease=0.0, bootstrap=False, oob_score=False, n_jobs=None, random_state=None, verbose=0, warm_start=False, ccp_alpha=0.0, max_samples=None, monotonic_cst=None)[source]#
- 极端随机树回归器。 - 此类实现了一个元估计器,它在数据集的多个子样本上拟合多个随机决策树(又称极端随机树),并使用平均来提高预测精度并控制过拟合。 - 更多信息请阅读用户指南。 - 参数:
- n_estimatorsint, default=100
- 森林中树的数量。 - 0.22版本中已更改: - n_estimators的默认值在0.22版本中从10更改为100。
- criterion{“squared_error”, “absolute_error”, “friedman_mse”, “poisson”}, default=”squared_error”
- 衡量分割质量的函数。支持的标准包括:用于均方误差的“squared_error”,它等于方差减少作为特征选择标准,并使用每个终端节点的均值最小化L2损失;“friedman_mse”,它使用均方误差和Friedman的改进分数来进行潜在分割;用于平均绝对误差的“absolute_error”,它使用每个终端节点的中位数最小化L1损失;以及“poisson”,它使用泊松偏差的减少来查找分割点。“absolute_error”的训练速度明显慢于“squared_error”。 - 0.18版本中已添加: 平均绝对误差 (MAE) 标准。 
- max_depthint, default=None
- 树的最大深度。如果为None,则节点会一直扩展,直到所有叶子节点都是纯净的,或者直到所有叶子节点包含少于min_samples_split个样本。 
- min_samples_splitint 或 float, default=2
- 分割内部节点所需的最小样本数。 - 如果为int,则将 - min_samples_split视为最小数量。
- 如果为float,则 - min_samples_split是一个分数,并且- ceil(min_samples_split * n_samples)是每个分割的最小样本数。
 - 0.18版本中已更改: 添加了分数的浮点值。 
- min_samples_leafint 或 float, default=1
- 叶节点所需的最小样本数。只有当分割点在任何深度上至少在左右分支中留下 - min_samples_leaf个训练样本时,才会考虑该分割点。这可能会使模型平滑,尤其是在回归中。- 如果为int,则将 - min_samples_leaf视为最小数量。
- 如果为float,则 - min_samples_leaf是一个分数,并且- ceil(min_samples_leaf * n_samples)是每个节点的最小样本数。
 - 0.18版本中已更改: 添加了分数的浮点值。 
- min_weight_fraction_leaffloat, default=0.0
- 叶节点所需的总权重(所有输入样本的总权重)的最小加权分数。如果没有提供sample_weight,则样本具有相等的权重。 
- max_features{“sqrt”, “log2”, None}, int 或 float, default=1.0
- 查找最佳分割时要考虑的特征数量。 - 如果为int,则在每次分割时考虑 - max_features个特征。
- 如果为float,则 - max_features是一个分数,并且- max(1, int(max_features * n_features_in_))个特征在每次分割时被考虑。
- 如果为“sqrt”,则 - max_features=sqrt(n_features)。
- 如果为“log2”,则 - max_features=log2(n_features)。
- 如果为None或1.0,则 - max_features=n_features。
 - 注意 - 1.0的默认值等效于装袋树,通过设置较小的值(例如0.3)可以实现更大的随机性。 - 1.1版本中已更改: - max_features的默认值已从- "auto"更改为1.0。- 注意:即使需要有效检查超过 - max_features个特征,搜索分割也不会停止,直到找到节点样本至少一个有效的划分。
- max_leaf_nodesint,默认值=None
- 以最佳优先的方式,生长具有 - max_leaf_nodes个叶节点的树。最佳节点定义为杂质的相对减少量。如果为None,则叶节点数量不受限制。
- min_impurity_decreasefloat,默认值=0.0
- 如果此分割引起的杂质减少量大于或等于此值,则将分割节点。 - 加权杂质减少方程如下所示: - N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity) - 其中 - N是样本总数,- N_t是当前节点的样本数,- N_t_L是左子节点的样本数,- N_t_R是右子节点的样本数。- 如果传递了 - sample_weight,则- N、- N_t、- N_t_R和- N_t_L都指加权和。- 0.19版本新增。 
- bootstrapbool,默认值=False
- 构建树时是否使用bootstrap样本。如果为False,则使用整个数据集构建每棵树。 
- oob_scorebool或callable,默认值=False
- 是否使用袋外样本估计泛化得分。默认情况下,使用 - r2_score。提供一个具有签名- metric(y_true, y_pred)的可调用对象以使用自定义指标。仅当- bootstrap=True时可用。
- n_jobsint,默认值=None
- 并行运行的作业数。 - fit、- predict、- decision_path和- apply都通过树进行并行化。- None表示1(除非在- joblib.parallel_backend上下文)。- -1表示使用所有处理器。有关更多详细信息,请参见词汇表。
- random_stateint、RandomState实例或None,默认值=None
- 控制三个随机性来源: - 构建树时使用的样本的bootstrap(如果 - bootstrap=True)
- 在每个节点查找最佳分割时要考虑的特征的采样(如果 - max_features < n_features)
- 每个 - max_features的分割抽取
 - 有关详细信息,请参见词汇表。 
- verboseint,默认值=0
- 控制拟合和预测时的详细程度。 
- warm_startbool,默认值=False
- 设置为 - True时,重用对fit的先前调用的解决方案并将更多估计器添加到集成中,否则,只需拟合一个全新的森林。有关详细信息,请参见词汇表和拟合附加树。
- ccp_alpha非负浮点数,默认值=0.0
- 用于最小成本复杂度剪枝的复杂度参数。将选择成本复杂度大于 - ccp_alpha的子树。默认情况下,不执行剪枝。有关详细信息,请参见最小成本复杂度剪枝。有关此类剪枝的示例,请参见使用成本复杂度剪枝的后剪枝决策树。- 0.22版本新增。 
- max_samplesint或float,默认值=None
- 如果bootstrap为True,则从X中抽取的样本数用于训练每个基本估计器。 - 如果为None(默认值),则抽取 - X.shape[0]个样本。
- 如果为int,则抽取 - max_samples个样本。
- 如果为float,则抽取 - max_samples * X.shape[0]个样本。因此,- max_samples应在区间- (0.0, 1.0]内。
 - 0.22版本新增。 
- monotonic_cst形状为(n_features,)的int型数组,默认值=None
- 指示要对每个特征强制执行的单调性约束。
- 1:单调递增 
- 0:无约束 
- -1:单调递减 
 
 - 如果monotonic_cst为None,则不应用任何约束。 - 不支持以下情况的单调性约束:
- 多输出回归(即当 - n_outputs_ > 1时),
- 对包含缺失值的训练数据进行回归。 
 
 - 在用户指南中了解更多信息。 - 1.4版本新增。 
 
- 属性:
- estimator_ExtraTreeRegressor
- 用于创建拟合的子估计器集合的子估计器模板。 - 1.2版本新增: - base_estimator_已重命名为- estimator_。
- estimators_DecisionTreeRegressor列表
- 拟合的子估计器集合。 
- feature_importances_形状为(n_features,)的ndarray
- 基于杂质的特征重要性。 
- n_features_in_int
- 在拟合过程中观察到的特征数量。 - 在0.24版本中添加。 
- feature_names_in_形状为(n_features_in_,)的ndarray
- 在拟合过程中观察到的特征名称。仅当 - X的特征名称全部为字符串时才定义。- 在1.0版本中添加。 
- n_outputs_int
- 输出的数量。 
- oob_score_float
- 使用包外估计获得的训练数据集的得分。仅当 - oob_score为True时,此属性才存在。
- oob_prediction_形状为(n_samples,)或(n_samples, n_outputs)的ndarray
- 使用训练集上的包外估计计算的预测值。仅当 - oob_score为True时,此属性才存在。
- estimators_samples_数组列表
- 每个基础估计量的抽取样本子集。 
 
- estimator_
 - 另请参见 - ExtraTreesClassifier
- 具有随机分割的额外树分类器。 
- RandomForestClassifier
- 具有最佳分割的随机森林分类器。 
- RandomForestRegressor
- 使用具有最佳分割的树的集成回归器。 
 - 备注 - 控制树的大小(例如 - max_depth,- min_samples_leaf等)的参数的默认值会导致完全生长和未修剪的树,这些树在某些数据集上可能非常大。为了减少内存消耗,应该通过设置这些参数值来控制树的复杂性和大小。- 参考文献 [1]- P. Geurts, D. Ernst., and L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006。 - 示例 - >>> from sklearn.datasets import load_diabetes >>> from sklearn.model_selection import train_test_split >>> from sklearn.ensemble import ExtraTreesRegressor >>> X, y = load_diabetes(return_X_y=True) >>> X_train, X_test, y_train, y_test = train_test_split( ... X, y, random_state=0) >>> reg = ExtraTreesRegressor(n_estimators=100, random_state=0).fit( ... X_train, y_train) >>> reg.score(X_test, y_test) 0.2727... - apply(X)[source]#
- 将森林中的树应用于X,返回叶索引。 - 参数:
- X形状为(n_samples, n_features)的{类数组,稀疏矩阵}
- 输入样本。内部,其dtype将转换为 - dtype=np.float32。如果提供稀疏矩阵,它将转换为稀疏- csr_matrix。
 
- 返回:
- X_leaves形状为(n_samples, n_estimators)的ndarray
- 对于X中的每个数据点x和森林中的每棵树,返回x最终所在的叶子的索引。 
 
 
 - decision_path(X)[source]#
- 返回森林中的决策路径。 - 在0.18版本中添加。 - 参数:
- X形状为(n_samples, n_features)的{类数组,稀疏矩阵}
- 输入样本。内部,其dtype将转换为 - dtype=np.float32。如果提供稀疏矩阵,它将转换为稀疏- csr_matrix。
 
- 返回:
- indicator形状为(n_samples, n_nodes)的稀疏矩阵
- 返回一个节点指示矩阵,其中非零元素表示样本经过这些节点。该矩阵为CSR格式。 
- n_nodes_ptr形状为(n_estimators + 1,)的ndarray
- indicator[n_nodes_ptr[i]:n_nodes_ptr[i+1]]中的列给出第i个估计器的指示值。 
 
 
 - property estimators_samples_#
- 每个基础估计量的抽取样本子集。 - 返回一个动态生成的索引列表,用于标识用于拟合集成每个成员的样本,即包内样本。 - 注意:为了减少对象内存占用而不存储采样数据,该列表在每次调用属性时都会重新创建。因此,获取属性的速度可能会比预期慢。 
 - property feature_importances_#
- 基于杂质的特征重要性。 - 越高,特征越重要。特征的重要性计算为该特征带来的标准(归一化)总减少量。它也称为基尼重要性。 - 警告:对于高基数特征(许多唯一值),基于杂质的特征重要性可能会产生误导。请参阅 - sklearn.inspection.permutation_importance作为替代方法。- 返回:
- feature_importances_形状为(n_features,)的ndarray
- 除非所有树都是仅由根节点组成的单节点树,否则此数组的值之和为1,在这种情况下,它将是一个零数组。 
 
 
 - fit(X, y, sample_weight=None)[source]#
- 根据训练集 (X, y) 构建树林。 - 参数:
- X形状为(n_samples, n_features)的{类数组,稀疏矩阵}
- 训练输入样本。内部,其dtype将转换为 - dtype=np.float32。如果提供稀疏矩阵,它将转换为稀疏- csc_matrix。
- y形状为(n_samples,)或(n_samples, n_outputs)的类数组
- 目标值(分类中的类别标签,回归中的实数)。 
- sample_weight形状为(n_samples,)的类数组,默认为None
- 样本权重。如果为None,则样本权重相等。在搜索每个节点中的分割时,将忽略创建子节点的净权重为零或负权重的分割。在分类的情况下,如果分割会导致任何单个类在任一子节点中具有负权重,则也会忽略分割。 
 
- 返回:
- self对象
- 拟合后的估计器。 
 
 
 - get_metadata_routing()[source]#
- 获取此对象的元数据路由。 - 请查看 用户指南,了解路由机制的工作原理。 - 返回:
- routingMetadataRequest
- 一个 - MetadataRequest封装路由信息。
 
 
 - get_params(deep=True)[source]#
- 获取此估计器的参数。 - 参数:
- deep布尔值,默认为 True
- 如果为 True,则将返回此估计器和包含的子对象(也是估计器)的参数。 
 
- 返回:
- params字典
- 参数名称与其值的映射。 
 
 
 - predict(X)[source]#
- 预测 X 的回归目标。 - 输入样本的预测回归目标计算为森林中树木的平均预测回归目标。 - 参数:
- X形状为(n_samples, n_features)的{类数组,稀疏矩阵}
- 输入样本。内部,其dtype将转换为 - dtype=np.float32。如果提供稀疏矩阵,它将转换为稀疏- csr_matrix。
 
- 返回:
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 ndarray
- 预测值。 
 
 
 - score(X, y, sample_weight=None)[source]#
- 返回预测的决定系数。 - 决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 - ((y_true - y_pred)** 2).sum(),而 \(v\) 是总平方和- ((y_true - y_true.mean()) ** 2).sum()。最佳分数是 1.0,它可以为负数(因为模型可以任意差)。一个始终预测- y期望值的常数模型,忽略输入特征,其 \(R^2\) 分数为 0.0。- 参数:
- X形状为 (n_samples, n_features) 的类数组
- 测试样本。对于某些估计器,这可能是预先计算的核矩阵或形状为 - (n_samples, n_samples_fitted)的泛型对象列表,其中- n_samples_fitted是估计器拟合中使用的样本数。
- y形状为(n_samples,)或(n_samples, n_outputs)的类数组
- X 的真实值。 
- sample_weight形状为(n_samples,)的类数组,默认为None
- 样本权重。 
 
- 返回:
- score浮点数
- self.predict(X)关于- y的 \(R^2\)。
 
 - 备注 - 从 0.23 版开始,在回归器上调用 - score时使用的 \(R^2\) 分数使用- multioutput='uniform_average',以保持与- r2_score的默认值一致。这会影响所有多输出回归器的- score方法(- MultiOutputRegressor除外)。
 - set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreesRegressor[source]#
- 请求传递给 - fit方法的元数据。- 请注意,仅当 - enable_metadata_routing=True时(请参见- sklearn.set_config)此方法才相关。请参阅 用户指南,了解路由机制的工作原理。- 每个参数的选项为 - True:请求元数据,如果提供则将其传递给- fit。如果未提供元数据,则忽略请求。
- False:不请求元数据,元估计器不会将其传递给- fit。
- None:不请求元数据,如果用户提供元数据,元估计器将引发错误。
- str:元数据应使用此给定的别名而不是原始名称传递给元估计器。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求,而无需更改其他参数。- 1.3 版中新增。 - 注意 - 仅当将此估计器用作元估计器的子估计器时(例如,在 - Pipeline中使用)此方法才相关。否则,它无效。- 参数:
- sample_weightstr、True、False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED
- fit中- sample_weight参数的元数据路由。
 
- 返回:
- self对象
- 更新后的对象。 
 
 
 - set_params(**params)[source]#
- 设置此估计器的参数。 - 此方法适用于简单的估计器以及嵌套对象(例如 - Pipeline)。后者具有- <component>__<parameter>形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **params**字典
- 估计器参数。 
 
- 返回:
- self估计器实例
- 估计器实例。 
 
 
 - set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreesRegressor[source]#
- 传递给 - score方法的请求元数据。- 请注意,仅当 - enable_metadata_routing=True时(请参见- sklearn.set_config)此方法才相关。请参阅 用户指南,了解路由机制的工作原理。- 每个参数的选项为 - True:请求元数据,如果提供则传递给- score。如果未提供元数据,则忽略请求。
- False:不请求元数据,元估计器不会将其传递给- score。
- None:不请求元数据,如果用户提供元数据,元估计器将引发错误。
- str:元数据应使用此给定的别名而不是原始名称传递给元估计器。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求,而无需更改其他参数。- 1.3 版中新增。 - 注意 - 仅当将此估计器用作元估计器的子估计器时(例如,在 - Pipeline中使用)此方法才相关。否则,它无效。- 参数:
- sample_weightstr、True、False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED
- score方法中- sample_weight参数的元数据路由。
 
- 返回:
- self对象
- 更新后的对象。 
 
 
 
 
    