额外树分类器#
- class sklearn.tree.ExtraTreeClassifier(*, criterion='gini', splitter='random', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features='sqrt', random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)[source]#
极端随机树分类器。
极端随机树与经典决策树的构建方式不同。在寻找最佳分割将节点样本分成两组时,会为每个随机选择的
max_features
特征绘制随机分割,并从中选择最佳分割。当max_features
设置为1时,这相当于构建一棵完全随机的决策树。警告:极端随机树应该只在集成方法中使用。
更多信息请阅读用户指南。
- 参数:
- criterion{“gini”, “entropy”, “log_loss”}, default=”gini”
用于衡量分割质量的函数。支持的标准包括用于基尼杂质的“gini”,以及用于香农信息增益的“log_loss”和“entropy”,参见数学公式。
- splitter{“random”, “best”}, default=”random”
用于在每个节点选择分割的策略。支持的策略包括“best”(选择最佳分割)和“random”(选择最佳随机分割)。
- max_depthint, default=None
树的最大深度。如果为None,则节点会一直扩展,直到所有叶子节点都是纯的,或者所有叶子节点包含的样本数少于min_samples_split。
- min_samples_splitint 或 float, default=2
拆分内部节点所需的最小样本数。
如果为整数,则将
min_samples_split
视为最小数量。如果为浮点数,则
min_samples_split
是一个分数,ceil(min_samples_split * n_samples)
是每次分割的最小样本数。
0.18版本中已更改: 添加了表示分数的浮点值。
- min_samples_leafint 或 float, default=1
叶子节点所需的最小样本数。只有当在任何深度处的分割点至少在左右分支中留下
min_samples_leaf
个训练样本时,才会考虑该分割点。这可能会使模型平滑,尤其是在回归中。如果为整数,则将
min_samples_leaf
视为最小数量。如果为浮点数,则
min_samples_leaf
是一个分数,ceil(min_samples_leaf * n_samples)
是每个节点的最小样本数。
0.18版本中已更改: 添加了表示分数的浮点值。
- min_weight_fraction_leaffloat, default=0.0
叶子节点所需的权重总和的最小加权分数(所有输入样本的权重总和)。如果没有提供sample_weight,则样本具有相等的权重。
- max_featuresint, float, {“sqrt”, “log2”} 或 None, default=”sqrt”
寻找最佳分割时要考虑的特征数量。
如果为整数,则每次分割考虑
max_features
个特征。如果为浮点数,则
max_features
是一个分数,max(1, int(max_features * n_features_in_))
个特征在每次分割时被考虑。如果为“sqrt”,则
max_features=sqrt(n_features)
。如果为“log2”,则
max_features=log2(n_features)
。如果为None,则
max_features=n_features
。
1.1版本中已更改:
max_features
的默认值已从"auto"
更改为"sqrt"
。注意:即使需要有效检查超过
max_features
个特征,搜索分割也不会停止,直到找到节点样本至少一个有效的划分。- random_stateint, RandomState 实例或 None, default=None
用于随机选择每次分割时使用的
max_features
。详情请参见词汇表。- max_leaf_nodesint, default=None
以最佳优先的方式增长具有
max_leaf_nodes
的树。最佳节点定义为杂质的相对减少。如果为None,则叶子节点数量不受限制。- min_impurity_decreasefloat, default=0.0
如果此分割导致杂质减少大于或等于此值,则将分割节点。
加权杂质减少方程如下:
N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity)
其中
N
是样本总数,N_t
是当前节点的样本数,N_t_L
是左子节点的样本数,N_t_R
是右子节点的样本数。如果传递了
sample_weight
,则N
、N_t
、N_t_R
和N_t_L
都指加权和。0.19版本中添加。
- class_weightdict, list of dict 或 “balanced”, default=None
与类别相关的权重,格式为
{class_label: weight}
。如果为 None,则所有类别的权重都假定为 1。对于多输出问题,可以按照 y 的列顺序提供一个字典列表。请注意,对于多输出(包括多标签)问题,应为每一列的每个类别在其自身的字典中定义权重。例如,对于四类多标签分类,权重应为 [{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}],而不是 [{1:1}, {2:5}, {3:1}, {4:1}]。
“balanced” 模式使用 y 的值来自动调整权重,使其与输入数据中类别的频率成反比,公式为
n_samples / (n_classes * np.bincount(y))
对于多输出,y 的每一列的权重将相乘。
请注意,如果指定了 sample_weight(通过 fit 方法传递),则这些权重将与 sample_weight 相乘。
- ccp_alpha非负浮点数,默认值为 0.0
用于最小成本复杂度剪枝的复杂度参数。将选择成本复杂度小于
ccp_alpha
的最大成本复杂度的子树。默认情况下,不执行剪枝。有关详细信息,请参阅 最小成本复杂度剪枝。有关此类剪枝的示例,请参阅 使用成本复杂度剪枝后剪枝决策树。在 0.22 版本中添加。
- monotonic_cst形状为 (n_features,) 的整数型数组,默认值为 None
- 指示要对每个特征强制执行的单调性约束。
1:单调递增
0:无约束
-1:单调递减
如果 monotonic_cst 为 None,则不应用任何约束。
- 不支持以下情况的单调性约束:
多类分类(即
n_classes > 2
),多输出分类(即
n_outputs_ > 1
),使用缺失值数据训练的分类。
这些约束适用于正类别的概率。
在 用户指南 中了解更多信息。
在 1.4 版本中添加。
- 属性:
- classes_形状为 (n_classes,) 的 ndarray 或 ndarray 列表
类别标签(单输出问题)或类别标签数组列表(多输出问题)。
- max_features_整数
max_features 的推断值。
- n_classes_整数或整数列表
类别的数量(对于单输出问题)或包含每个输出的类别数量的列表(对于多输出问题)。
feature_importances_
形状为 (n_features,) 的 ndarray返回特征重要性。
- n_features_in_整数
在 拟合期间看到的特征数量。
在 0.24 版本中添加。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 在 拟合期间看到的特征名称。仅当
X
的特征名称全部为字符串时才定义。在 1.0 版本中添加。
- n_outputs_整数
执行
fit
时的输出数量。- tree_树实例
底层的树对象。有关树对象的属性,请参阅
help(sklearn.tree._tree.Tree)
,有关这些属性的基本用法,请参阅 理解决策树结构。
另请参阅
额外树回归器
一种极度随机化的树回归器。
sklearn.ensemble.ExtraTreesClassifier
一种额外树分类器。
sklearn.ensemble.ExtraTreesRegressor
一种额外树回归器。
sklearn.ensemble.RandomForestClassifier
一种随机森林分类器。
sklearn.ensemble.RandomForestRegressor
一种随机森林回归器。
sklearn.ensemble.RandomTreesEmbedding
一个完全随机树的集合。
注释
控制树大小的参数(例如
max_depth
、min_samples_leaf
等)的默认值会导致完全生长和未修剪的树,这些树在某些数据集上可能非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。参考文献
[1]P. Geurts, D. Ernst., and L. Wehenkel, “Extremely randomized trees”, Machine Learning, 63(1), 3-42, 2006。
示例
>>> from sklearn.datasets import load_iris >>> from sklearn.model_selection import train_test_split >>> from sklearn.ensemble import BaggingClassifier >>> from sklearn.tree import ExtraTreeClassifier >>> X, y = load_iris(return_X_y=True) >>> X_train, X_test, y_train, y_test = train_test_split( ... X, y, random_state=0) >>> extra_tree = ExtraTreeClassifier(random_state=0) >>> cls = BaggingClassifier(extra_tree, random_state=0).fit( ... X_train, y_train) >>> cls.score(X_test, y_test) 0.8947...
- apply(X, check_input=True)[source]#
返回每个样本预测为的叶子的索引。
在 0.17 版本中添加。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csr_matrix
。- check_input布尔值,默认值为 True
允许绕过几个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- X_leaves形状为 (n_samples,) 的类数组
对于 X 中的每个数据点 x,返回 x 结束所在的叶子的索引。叶子在
[0; self.tree_.node_count)
内编号,编号中可能存在间隙。
- cost_complexity_pruning_path(X, y, sample_weight=None)[source]#
计算最小成本复杂度剪枝过程中的剪枝路径。
有关剪枝过程的详细信息,请参阅 最小成本复杂度剪枝。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
训练输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csc_matrix
。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
目标值(类别标签),以整数或字符串表示。
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
样本权重。如果为 None,则样本权重相等。在搜索每个节点的分割点时,会忽略那些会导致子节点净权重为零或负值的分割点。如果分割会导致任何一个子节点中单个类别的权重为负值,也会忽略该分割点。
- 返回:
- ccp_path
Bunch
类似字典的对象,具有以下属性。
- ccp_alphasndarray
剪枝过程中子树的有效 alpha 值。
- impuritiesndarray
对于
ccp_alphas
中对应的 alpha 值,子树叶节点的杂质总和。
- ccp_path
- decision_path(X, check_input=True)[source]#
返回树中的决策路径。
0.18 版本中新增。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csr_matrix
。- check_input布尔值,默认值为 True
允许绕过几个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- indicator形状为 (n_samples, n_nodes) 的稀疏矩阵
返回一个节点指示符 CSR 矩阵,其中非零元素表示样本经过的节点。
- property feature_importances_#
返回特征重要性。
特征的重要性计算为该特征带来的标准(归一化)的判据总减少量。也称为基尼重要性。
警告:对于高基数特征(许多唯一值),基于杂质的特征重要性可能具有误导性。请参考
sklearn.inspection.permutation_importance
作为替代方法。- 返回:
- feature_importances_形状为 (n_features,) 的 ndarray
特征带来的标准(归一化)的判据总减少量(基尼重要性)。
- fit(X, y, sample_weight=None, check_input=True)[source]#
根据训练集 (X, y) 构建决策树分类器。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
训练输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csc_matrix
。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
目标值(类别标签),以整数或字符串表示。
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
样本权重。如果为 None,则样本权重相等。在搜索每个节点的分割点时,会忽略那些会导致子节点净权重为零或负值的分割点。如果分割会导致任何一个子节点中单个类别的权重为负值,也会忽略该分割点。
- check_input布尔值,默认值为 True
允许绕过几个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- selfDecisionTreeClassifier
已拟合的估计器。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看 用户指南,了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个
MetadataRequest
,封装了路由信息。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deepbool,默认为 True
如果为 True,将返回此估计器和包含的作为估计器的子对象的参数。
- 返回:
- paramsdict
参数名称与其值的映射。
- predict(X, check_input=True)[source]#
预测 X 的类别或回归值。
对于分类模型,返回 X 中每个样本的预测类别。对于回归模型,返回基于 X 的预测值。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csr_matrix
。- check_input布尔值,默认值为 True
允许绕过几个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
预测的类别或预测值。
- predict_log_proba(X)[source]#
预测输入样本 X 的类别对数概率。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csr_matrix
。
- 返回:
- proba形状为 (n_samples, n_classes) 的 ndarray,如果 n_outputs > 1,则为 n_outputs 个此类数组的列表
输入样本的类别对数概率。类别的顺序与属性classes_中的顺序一致。
- predict_proba(X, check_input=True)[source]#
预测输入样本X的类别概率。
预测的类别概率是叶节点中相同类别样本的比例。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
输入样本。内部将将其转换为
dtype=np.float32
,如果提供稀疏矩阵,则将其转换为稀疏csr_matrix
。- check_input布尔值,默认值为 True
允许绕过几个输入检查。除非您知道自己在做什么,否则不要使用此参数。
- 返回:
- proba形状为 (n_samples, n_classes) 的 ndarray,如果 n_outputs > 1,则为 n_outputs 个此类数组的列表
输入样本的类别概率。类别的顺序与属性classes_中的顺序一致。
- score(X, y, sample_weight=None)[source]#
返回给定测试数据和标签的平均准确率。
在多标签分类中,这是子集准确率,这是一个严格的指标,因为它要求每个样本的每个标签集都必须被正确预测。
- 参数:
- X形状为 (n_samples, n_features) 的类数组
测试样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
X
的真实标签。- sample_weight形状为 (n_samples,) 的类数组,默认为 None
样本权重。
- 返回:
- score浮点数
self.predict(X)
关于y
的平均准确率。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreeClassifier [source]#
请求传递给
fit
方法的元数据。请注意,只有在
enable_metadata_routing=True
(参见sklearn.set_config
)时,此方法才相关。请参阅用户指南了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给fit
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不对其他参数进行更改。1.3版本中新增。
注意
只有在此估计器用作元估计器的子估计器时(例如,在
Pipeline
中使用)此方法才相关。否则,它无效。- 参数:
- sample_weightstr,True,False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED
fit
中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单的估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **params字典
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') ExtraTreeClassifier [source]#
向
score
方法请求传递的元数据。请注意,只有在
enable_metadata_routing=True
(参见sklearn.set_config
)时,此方法才相关。请参阅用户指南了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求,而不对其他参数进行更改。1.3版本中新增。
注意
只有在此估计器用作元估计器的子估计器时(例如,在
Pipeline
中使用)此方法才相关。否则,它无效。- 参数:
- sample_weightstr,True,False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。