ExtraTreeClassifier#

class sklearn.tree.ExtraTreeClassifier(*, criterion='gini', splitter='random', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='sqrt', random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)[source]#

一种极端随机树分类器。

超树与传统决策树的构建方式不同。在寻找最佳分割以将节点样本分成两组时,会为每个max_features随机选择的特征绘制随机分割,并从中选择最佳分割。当max_features设置为1时,这相当于构建一个完全随机的决策树。

警告:超树只能用于集成方法。

用户指南中阅读更多内容。

参数:
criterion{“gini”, “entropy”, “log_loss”}, 默认为“gini”

衡量分割质量的函数。支持的标准包括基尼不纯度的“gini”以及香农信息增益的“log_loss”和“entropy”,详见数学公式

splitter{“random”, “best”}, 默认为“random”

在每个节点选择分割所用的策略。支持的策略有选择最佳分割的“best”和选择最佳随机分割的“random”。

max_depthint, 默认为None

树的最大深度。如果为None,则节点会一直扩展,直到所有叶子都是纯的,或者所有叶子包含的样本少于min_samples_split样本。

min_samples_splitint 或 float, 默认为2

分裂内部节点所需的最小样本数

  • 如果为int,则将min_samples_split视为最小数量。

  • 如果为float,则min_samples_split是一个分数,ceil(min_samples_split * n_samples)是每次分割所需的最小样本数。

0.18 版本新增:为分数添加了浮点值。

min_samples_leafint 或 float, 默认为1

叶节点所需的最小样本数。只有当分割点在左右分支中至少保留min_samples_leaf个训练样本时,才会考虑该分割点。这可能会对模型产生平滑效果,尤其是在回归中。

  • 如果为int,则将min_samples_leaf视为最小数量。

  • 如果为float,则min_samples_leaf是一个分数,ceil(min_samples_leaf * n_samples)是每个节点所需的最小样本数。

0.18 版本新增:为分数添加了浮点值。

min_weight_fraction_leaffloat, 默认为0.0

叶节点所需的总权重(所有输入样本)的最小加权分数。当未提供sample_weight时,样本具有相同的权重。

max_featuresint, float, {“sqrt”, “log2”} 或 None, 默认为“sqrt”

寻找最佳分割时要考虑的特征数量

  • 如果为int,则在每次分割时考虑max_features个特征。

  • 如果为float,则max_features是一个分数,每次分割时考虑max(1, int(max_features * n_features_in_))个特征。

  • 如果为“sqrt”,则max_features=sqrt(n_features)

  • 如果为“log2”,则max_features=log2(n_features)

  • 如果为None,则max_features=n_features

1.1 版本新增:max_features的默认值从"auto"变更为"sqrt"

注意:分割搜索不会停止,直到找到至少一个有效的节点样本分区,即使这需要实际检查超过max_features个特征。

random_stateint, RandomState 实例或 None, 默认为None

用于随机选择每次分割时使用的max_features。详见术语表

max_leaf_nodesint, 默认为None

以最佳优先方式生成具有max_leaf_nodes的树。最佳节点定义为不纯度的相对减少。如果为None,则叶节点数量不受限制。

min_impurity_decreasefloat, 默认为0.0

如果此分割导致不纯度减少大于或等于此值,则节点将被分割。

加权不纯度减少方程如下

N_t / N * (impurity - N_t_R / N_t * right_impurity
                    - N_t_L / N_t * left_impurity)

其中N是样本总数,N_t是当前节点中的样本数,N_t_L是左子节点中的样本数,N_t_R是右子节点中的样本数。

如果传递了sample_weight,则NN_tN_t_RN_t_L都指的是加权和。

0.19 版本新增。

class_weightdict, 字典列表或“balanced”, 默认为None

与类关联的权重,形式为{class_label: weight}。如果为None,则所有类都被假定权重为1。对于多输出问题,可以按照y的列顺序提供字典列表。

请注意,对于多输出(包括多标签)问题,每个列的每个类都应在其自己的字典中定义权重。例如,对于四类多标签分类,权重应为[{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}]而不是[{1:1}, {2:5}, {3:1}, {4:1}]。

“balanced”模式使用y的值来自动调整权重,使其与输入数据中类频率成反比,即n_samples / (n_classes * np.bincount(y))

对于多输出,y的每列的权重将相乘。

请注意,如果指定了sample_weight,这些权重将与sample_weight(通过fit方法传递)相乘。

ccp_alpha非负浮点数, 默认为0.0

用于最小成本复杂度剪枝的复杂性参数。将选择成本复杂性最大且小于ccp_alpha的子树。默认情况下,不执行剪枝。有关剪枝过程的详细信息,请参阅最小成本复杂度剪枝。有关此类剪枝的示例,请参阅使用成本复杂度剪枝对决策树进行后剪枝

0.22 版本新增。

monotonic_cst形状为 (n_features) 的整型数组, 默认为None
指示对每个特征施加的单调性约束。
  • 1: 单调递增

  • 0: 无约束

  • -1: 单调递减

如果monotonic_cst为None,则不应用任何约束。

不支持单调性约束的情形有
  • 多类分类(即当n_classes > 2时),

  • 多输出分类(即当n_outputs_ > 1时),

  • 在包含缺失值的数据上训练的分类。

这些约束适用于正类的概率。

用户指南中阅读更多内容。

1.4 版本新增。

属性:
classes_形状为 (n_classes,) 的ndarray 或 ndarray列表

类别标签(单输出问题),或类别标签数组列表(多输出问题)。

max_features_int

max_features的推断值。

n_classes_int 或 int列表

类别数量(对于单输出问题),或包含每个输出类别数量的列表(对于多输出问题)。

feature_importances_形状为 (n_features,) 的ndarray

返回特征重要性。

n_features_in_int

fit期间看到的特征数量。

0.24 版本新增。

feature_names_in_形状为 (n_features_in_,) 的ndarray

fit期间看到的特征名称。仅当X的所有特征名称均为字符串时定义。

1.0 版本新增。

n_outputs_int

执行fit时的输出数量。

tree_Tree 实例

底层Tree对象。请参考help(sklearn.tree._tree.Tree)以了解Tree对象的属性,并参考理解决策树结构以了解这些属性的基本用法。

另请参阅

ExtraTreeRegressor

一种极端随机树回归器。

sklearn.ensemble.ExtraTreesClassifier

一种超树分类器。

sklearn.ensemble.ExtraTreesRegressor

一种超树回归器。

sklearn.ensemble.RandomForestClassifier

一种随机森林分类器。

sklearn.ensemble.RandomForestRegressor

一种随机森林回归器。

sklearn.ensemble.RandomTreesEmbedding

完全随机树的集成。

注意

控制树大小的参数(例如max_depthmin_samples_leaf等)的默认值会导致完全生长且未剪枝的树,这在某些数据集上可能会非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。

参考文献

[1]

P. Geurts, D. Ernst., and L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006.

示例

>>> from sklearn.datasets import load_iris
>>> from sklearn.model_selection import train_test_split
>>> from sklearn.ensemble import BaggingClassifier
>>> from sklearn.tree import ExtraTreeClassifier
>>> X, y = load_iris(return_X_y=True)
>>> X_train, X_test, y_train, y_test = train_test_split(
...    X, y, random_state=0)
>>> extra_tree = ExtraTreeClassifier(random_state=0)
>>> cls = BaggingClassifier(extra_tree, random_state=0).fit(
...    X_train, y_train)
>>> cls.score(X_test, y_test)
0.8947
apply(X, check_input=True)[source]#

返回每个样本被预测为的叶子索引。

0.17 版本新增。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csr_matrix

check_inputbool, 默认为True

允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
X_leaves形状为 (n_samples,) 的array-like

对于X中的每个数据点x,返回x最终所在的叶子索引。叶子在[0; self.tree_.node_count)范围内编号,可能存在编号间隙。

cost_complexity_pruning_path(X, y, sample_weight=None)[source]#

计算最小成本复杂度剪枝期间的剪枝路径。

有关剪枝过程的详细信息,请参阅最小成本复杂度剪枝

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

训练输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csc_matrix

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的array-like

目标值(类标签)为整数或字符串。

sample_weight形状为 (n_samples,) 的array-like, 默认为None

样本权重。如果为None,则样本权重相等。在每个节点搜索分割时,将忽略那些会创建净零或负权重子节点的分割。如果分割会导致任何单个类在任一子节点中带有负权重,也将忽略该分割。

返回:
ccp_pathBunch

字典状对象,具有以下属性。

ccp_alphasndarray

剪枝期间子树的有效alpha值。

impuritiesndarray

对应于ccp_alphas中alpha值的子树叶子的不纯度之和。

decision_path(X, check_input=True)[source]#

返回树中的决策路径。

0.18 版本新增。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csr_matrix

check_inputbool, 默认为True

允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
indicator形状为 (n_samples, n_nodes) 的稀疏矩阵

返回一个节点指示符CSR矩阵,其中非零元素表示样本通过了这些节点。

fit(X, y, sample_weight=None, check_input=True)[source]#

从训练集 (X, y) 构建决策树分类器。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

训练输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csc_matrix

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的array-like

目标值(类标签)为整数或字符串。

sample_weight形状为 (n_samples,) 的array-like, 默认为None

样本权重。如果为None,则样本权重相等。在每个节点搜索分割时,将忽略那些会创建净零或负权重子节点的分割。如果分割会导致任何单个类在任一子节点中带有负权重,也将忽略该分割。

check_inputbool, 默认为True

允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
selfDecisionTreeClassifier

已拟合的估计器。

get_depth()[source]#

返回决策树的深度。

树的深度是根节点和任何叶节点之间的最大距离。

返回:
self.tree_.max_depthint

树的最大深度。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查阅用户指南,了解路由机制的工作原理。

返回:
routingMetadataRequest

一个封装了路由信息的MetadataRequest

get_n_leaves()[source]#

返回决策树的叶子数量。

返回:
self.tree_.n_leavesint

叶子数量。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deepbool, 默认为True

如果为True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
paramsdict

参数名称及其对应的值。

predict(X, check_input=True)[source]#

预测X的类别或回归值。

对于分类模型,返回X中每个样本的预测类别。对于回归模型,返回基于X的预测值。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csr_matrix

check_inputbool, 默认为True

允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
y形状为 (n_samples,) 或 (n_samples, n_outputs) 的array-like

预测的类别,或预测值。

predict_log_proba(X)[source]#

预测输入样本X的类别对数概率。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csr_matrix

返回:
proba形状为 (n_samples, n_classes) 的ndarray 或如果n_outputs > 1则为n_outputs个此类数组的列表

输入样本的类别对数概率。类别的顺序与属性classes_中的顺序一致。

predict_proba(X, check_input=True)[source]#

预测输入样本X的类别概率。

预测的类别概率是叶子中同类别样本的比例。

参数:
X{array-like, sparse matrix} 形状为 (n_samples, n_features)

输入样本。在内部,它将被转换为dtype=np.float32,如果提供了稀疏矩阵,则转换为稀疏csr_matrix

check_inputbool, 默认为True

允许绕过多个输入检查。除非您知道自己在做什么,否则请勿使用此参数。

返回:
proba形状为 (n_samples, n_classes) 的ndarray 或如果n_outputs > 1则为n_outputs个此类数组的列表

输入样本的类别概率。类别的顺序与属性classes_中的顺序一致。

score(X, y, sample_weight=None)[source]#

返回给定数据和标签上的准确率

在多标签分类中,这是子集准确率,这是一个严格的指标,因为它要求每个样本的每个标签集都被正确预测。

参数:
X形状为 (n_samples, n_features) 的array-like

测试样本。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的array-like

X的真实标签。

sample_weight形状为 (n_samples,) 的array-like, 默认为None

样本权重。

返回:
scorefloat

self.predict(X)相对于y的平均准确率。

set_fit_request(*, sample_weight: 布尔值 | None | 字符串 = '$UNCHANGED$') ExtraTreeClassifier[source]#

请求传递给fit方法的元数据。

请注意,此方法仅在enable_metadata_routing=True时相关(参见sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为

  • True:请求元数据,如果提供则传递给fit。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,元估计器不会将其传递给fit

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定别名而非原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求,而不更改其他参数。

1.3 版本新增。

注意

此方法仅在将此估计器用作元估计器的子估计器时才相关,例如在Pipeline内部使用时。否则,它没有效果。

参数:
sample_weightstr, True, False, 或 None, 默认为sklearn.utils.metadata_routing.UNCHANGED

fit方法中sample_weight参数的元数据路由。

返回:
selfobject

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(例如Pipeline)。后者具有<component>__<parameter>形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: 布尔值 | None | 字符串 = '$UNCHANGED$') ExtraTreeClassifier[source]#

请求传递给score方法的元数据。

请注意,此方法仅在enable_metadata_routing=True时相关(参见sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为

  • True:请求元数据,如果提供则传递给score。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,元估计器不会将其传递给score

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定别名而非原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求,而不更改其他参数。

1.3 版本新增。

注意

此方法仅在将此估计器用作元估计器的子估计器时才相关,例如在Pipeline内部使用时。否则,它没有效果。

参数:
sample_weightstr, True, False, 或 None, 默认为sklearn.utils.metadata_routing.UNCHANGED

score方法中sample_weight参数的元数据路由。

返回:
selfobject

更新后的对象。