RandomTreesEmbedding#

class sklearn.ensemble.RandomTreesEmbedding(n_estimators=100, *, max_depth=5, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_leaf_nodes=None, min_impurity_decrease=0.0, sparse_output=True, n_jobs=None, random_state=None, verbose=0, warm_start=False)[来源]#

一个完全随机树的集成。

一种将数据集转换为高维稀疏表示的无监督变换。一个数据点根据它被分类到每棵树的哪个叶子节点进行编码。通过对叶子节点进行独热编码,这会产生一个二进制编码,其中1的数量与森林中的树的数量相同。

结果表示的维度为 n_out <= n_estimators * max_leaf_nodes。如果 max_leaf_nodes == None,则叶子节点的数量最多为 n_estimators * 2 ** max_depth

有关将随机树嵌入应用于非线性分类的示例,请参阅使用完全随机树进行哈希特征变换

用户指南中阅读更多内容。

参数:
n_estimatorsint, 默认值=100

森林中的树的数量。

0.22 版本中的变更: n_estimators 的默认值在 0.22 版本中从 10 更改为 100。

max_depthint, 默认值=5

每棵树的最大深度。如果为 None,则节点会一直扩展,直到所有叶子节点都纯净或所有叶子节点包含少于 min_samples_split 的样本。

min_samples_splitint 或 float, 默认值=2

拆分内部节点所需的最小样本数

  • 如果为 int,则将 min_samples_split 视为最小数量。

  • 如果为 float,则 min_samples_split 是一个分数,ceil(min_samples_split * n_samples) 是每个拆分所需的最小样本数。

0.18 版本中的变更: 为分数添加了浮点值。

min_samples_leafint 或 float, 默认值=1

叶子节点所需的最小样本数。只有当分割点在左右分支中都至少保留了 min_samples_leaf 个训练样本时,任何深度的分割点才会被考虑。这可能会起到平滑模型的作用,尤其是在回归中。

  • 如果为 int,则将 min_samples_leaf 视为最小数量。

  • 如果为 float,则 min_samples_leaf 是一个分数,ceil(min_samples_leaf * n_samples) 是每个节点所需的最小样本数。

0.18 版本中的变更: 为分数添加了浮点值。

min_weight_fraction_leaffloat, 默认值=0.0

叶子节点所需的(所有输入样本)总权重和的最小加权分数。当未提供 sample_weight 时,样本具有相同的权重。

max_leaf_nodesint, 默认值=None

以最佳优先方式增长具有 max_leaf_nodes 的树。最佳节点定义为杂质的相对减少。如果为 None,则叶子节点数量不受限制。

min_impurity_decreasefloat, 默认值=0.0

如果此分割导致杂质的减少大于或等于此值,则该节点将被分割。

加权杂质减少方程如下

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

其中 N 是样本总数,N_t 是当前节点处的样本数,N_t_L 是左子节点中的样本数,N_t_R 是右子节点中的样本数。

如果传递了 sample_weight,则 NN_tN_t_RN_t_L 都指加权和。

在 0.19 版本中添加。

sparse_outputbool, 默认值=True

是否返回稀疏 CSR 矩阵(默认行为),或者返回与密集管道操作兼容的密集数组。

n_jobsint, 默认值=None

并行运行的作业数。fittransformdecision_pathapply 都可以在树上并行化。None 表示 1,除非在 joblib.parallel_backend 上下文中。-1 表示使用所有处理器。更多详细信息请参见术语表

random_stateint, RandomState 实例或 None, 默认值=None

控制用于拟合树的随机 y 的生成以及树节点处每个特征的分割绘制。详细信息请参见术语表

verboseint, 默认值=0

控制拟合和预测时的详细程度。

warm_startbool, 默认值=False

当设置为 True 时,重用之前对 fit 的调用结果,并向集成中添加更多估计器;否则,只拟合一个全新的森林。详细信息请参见术语表拟合附加树

属性:
estimator_ExtraTreeRegressor 实例

用于创建已拟合子估计器集合的子估计器模板。

在 1.2 版本中添加: base_estimator_ 已重命名为 estimator_

estimators_ExtraTreeRegressor 实例列表

已拟合子估计器的集合。

feature_importances_形状为 (n_features,) 的 ndarray

基于杂质的特征重要性。

n_features_in_int

拟合期间看到的特征数量。

在 0.24 版本中添加。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的所有特征名称均为字符串时才定义。

在 1.0 版本中添加。

n_outputs_int

执行 fit 时输出的数量。

one_hot_encoder_OneHotEncoder 实例

用于创建稀疏嵌入的独热编码器。

estimators_samples_数组列表

每个基础估计器抽样出的样本子集。

另请参阅

ExtraTreesClassifier

一个 Extra-Trees 分类器。

ExtraTreesRegressor

一个 Extra-Trees 回归器。

RandomForestClassifier

一个随机森林分类器。

RandomForestRegressor

一个随机森林回归器。

sklearn.tree.ExtraTreeClassifier

一个极端随机树分类器。

sklearn.tree.ExtraTreeRegressor

一个极端随机树回归器。

参考文献

[1]

P. Geurts, D. Ernst., and L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006.

[2]

Moosmann, F. and Triggs, B. and Jurie, F. “Fast discriminative visual codebooks using randomized clustering forests” NIPS 2007

示例

>>> from sklearn.ensemble import RandomTreesEmbedding
>>> X = [[0,0], [1,0], [0,1], [-1,0], [0,-1]]
>>> random_trees = RandomTreesEmbedding(
...    n_estimators=5, random_state=0, max_depth=1).fit(X)
>>> X_sparse_embedding = random_trees.transform(X)
>>> X_sparse_embedding.toarray()
array([[0., 1., 1., 0., 1., 0., 0., 1., 1., 0.],
       [0., 1., 1., 0., 1., 0., 0., 1., 1., 0.],
       [0., 1., 0., 1., 0., 1., 0., 1., 0., 1.],
       [1., 0., 1., 0., 1., 0., 1., 0., 1., 0.],
       [0., 1., 1., 0., 1., 0., 0., 1., 1., 0.]])
apply(X)[来源]#

将森林中的树应用于 X,返回叶子索引。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,其 dtype 将转换为 dtype=np.float32。如果提供了稀疏矩阵,它将被转换为稀疏 csr_matrix

返回:
X_leaves形状为 (n_samples, n_estimators) 的 ndarray

对于 X 中的每个数据点 x 和森林中的每棵树,返回 x 最终所在的叶子索引。

decision_path(X)[来源]#

返回森林中的决策路径。

在 0.18 版本中添加。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。在内部,其 dtype 将转换为 dtype=np.float32。如果提供了稀疏矩阵,它将被转换为稀疏 csr_matrix

返回:
indicator形状为 (n_samples, n_nodes) 的稀疏矩阵

返回一个节点指示矩阵,其中非零元素表示样本通过这些节点。该矩阵为 CSR 格式。

n_nodes_ptr形状为 (n_estimators + 1,) 的 ndarray

来自 indicator[n_nodes_ptr[i]:n_nodes_ptr[i+1]] 的列给出第 i 个估计器的指示值。

fit(X, y=None, sample_weight=None)[来源]#

拟合估计器。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

输入样本。使用 dtype=np.float32 可获得最大效率。也支持稀疏矩阵,使用稀疏 csc_matrix 可获得最大效率。

y忽略

未使用,根据约定为 API 一致性而存在。

sample_weight形状为 (n_samples,) 的类数组, 默认值=None

样本权重。如果为 None,则样本权重相等。在每个节点中搜索分割时,会忽略那些会创建净零或负权重子节点的分割。在分类情况下,如果分割会导致任何单个类别在任一子节点中带有负权重,也会忽略这些分割。

返回:
self对象

返回实例本身。

fit_transform(X, y=None, sample_weight=None)[来源]#

拟合估计器并转换数据集。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

用于构建森林的输入数据。使用 dtype=np.float32 可获得最大效率。

y忽略

未使用,根据约定为 API 一致性而存在。

sample_weight形状为 (n_samples,) 的类数组, 默认值=None

样本权重。如果为 None,则样本权重相等。在每个节点中搜索分割时,会忽略那些会创建净零或负权重子节点的分割。在分类情况下,如果分割会导致任何单个类别在任一子节点中带有负权重,也会忽略这些分割。

返回:
X_transformed形状为 (n_samples, n_out) 的稀疏矩阵

转换后的数据集。

get_feature_names_out(input_features=None)[来源]#

获取变换的输出特征名称。

参数:
input_featuresstr 的类数组或 None, 默认值=None

仅用于验证特征名称与在 fit 中看到的名称。

返回:
feature_names_outstr 对象的 ndarray

转换后的特征名称,格式为 randomtreesembedding_{tree}_{leaf},其中 tree 是用于生成叶子的树,leaf 是该树中叶子节点的索引。请注意,节点索引方案用于索引带子节点(分割节点)的节点和叶子节点。只有后者可以作为输出特征存在。因此,输出特征名称中会存在缺失索引。

get_metadata_routing()[来源]#

获取此对象的元数据路由。

请查看用户指南以了解路由机制的工作原理。

返回:
routingMetadataRequest

封装路由信息的 MetadataRequest

get_params(deep=True)[来源]#

获取此估计器的参数。

参数:
deepbool, 默认值=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
paramsdict

参数名称及其对应的值。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') RandomTreesEmbedding[来源]#

请求传递给 fit 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时才相关(参见 sklearn.set_config)。请参阅用户指南以了解路由机制的工作原理。

每个参数的选项有

  • True: 请求元数据,如果提供则传递给 fit。如果未提供元数据,则请求被忽略。

  • False: 不请求元数据,并且元估计器不会将其传递给 fit

  • None: 不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str: 元数据应以这个给定别名而非原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

在 1.3 版本中添加。

注意

此方法仅在估计器作为元估计器的子估计器使用时才相关,例如在 Pipeline 内部使用时。否则无效。

参数:
sample_weightstr, True, False, 或 None, 默认值=sklearn.utils.metadata_routing.UNCHANGED

fitsample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。

set_output(*, transform=None)[来源]#

设置输出容器。

有关如何使用此 API 的示例,请参阅set_output API 简介

参数:
transform{“default”, “pandas”, “polars”}, 默认值=None

配置 transformfit_transform 的输出。

  • "default": 转换器的默认输出格式

  • "pandas": DataFrame 输出

  • "polars": Polars 输出

  • None: 转换配置未更改

在 1.4 版本中添加: 添加了 "polars" 选项。

返回:
self估计器实例

估计器实例。

set_params(**params)[来源]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(例如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。

transform(X)[来源]#

转换数据集。

参数:
X形状为 (n_samples, n_features) 的 {array-like, 稀疏矩阵}

要转换的输入数据。使用 dtype=np.float32 可获得最大效率。也支持稀疏矩阵,使用稀疏 csr_matrix 可获得最大效率。

返回:
X_transformed形状为 (n_samples, n_out) 的稀疏矩阵

转换后的数据集。