决策树分类器#
- class sklearn.tree.DecisionTreeClassifier(*, criterion='gini', splitter='best', max_depth=None, min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_features=None, random_state=None, max_leaf_nodes=None, min_impurity_decrease=0.0, class_weight=None, ccp_alpha=0.0, monotonic_cst=None)[source]#
- 决策树分类器。 - 更多信息请参见 用户指南。 - 参数:
- criterion{“gini”, “entropy”, “log_loss”}, default=”gini”
- 用于衡量分割质量的函数。支持的标准包括用于基尼不纯度的“gini”以及用于香农信息增益的“log_loss”和“entropy”,参见 数学公式。 
- splitter{“best”, “random”}, default=”best”
- 用于选择每个节点分割策略的策略。支持的策略包括选择最佳分割的“best”和选择最佳随机分割的“random”。 
- max_depthint, default=None
- 树的最大深度。如果为None,则节点将扩展到所有叶子节点纯净或所有叶子节点包含少于min_samples_split样本。 
- min_samples_splitint 或 float, default=2
- 分割内部节点所需的最小样本数。 - 如果为整数,则将 - min_samples_split视为最小数量。
- 如果为浮点数,则 - min_samples_split是一个分数,- ceil(min_samples_split * n_samples)是每个分割的最小样本数。
 - 0.18版本中的变更: 添加了浮点值以表示分数。 
- min_samples_leafint 或 float, default=1
- 叶节点所需的最小样本数。只有当在任何深度处的分割点至少在左右分支中留下 - min_samples_leaf个训练样本时,才会考虑该分割点。这可能会使模型更加平滑,尤其是在回归中。- 如果为整数,则将 - min_samples_leaf视为最小数量。
- 如果为浮点数,则 - min_samples_leaf是一个分数,- ceil(min_samples_leaf * n_samples)是每个节点的最小样本数。
 - 0.18版本中的变更: 添加了浮点值以表示分数。 
- min_weight_fraction_leaffloat, default=0.0
- 叶节点所需的总权重(所有输入样本的总权重之和)的最小加权分数。当未提供sample_weight时,样本具有相等的权重。 
- max_featuresint, float 或 {“sqrt”, “log2”}, default=None
- 查找最佳分割时要考虑的特征数量。 - 如果为整数,则在每次分割时考虑 - max_features个特征。
- 如果为浮点数,则 - max_features是一个分数,- max(1, int(max_features * n_features_in_))个特征在每次分割时都被考虑。
- 如果为“sqrt”,则 - max_features=sqrt(n_features)。
- 如果为“log2”,则 - max_features=log2(n_features)。
- 如果为None,则 - max_features=n_features。
 - 注意 - 即使需要有效检查超过 - max_features个特征,分割搜索也不会停止,直到找到节点样本至少一个有效的划分。
- random_stateint, RandomState 实例 或 None, default=None
- 控制估计器的随机性。即使 - splitter设置为- "best",在每次分割时特征总是会被随机排列。当- max_features < n_features时,算法将在每次分割之前随机选择- max_features个特征,然后在其中找到最佳分割。但是,即使- max_features=n_features,最佳分割结果在不同运行中也可能会有所不同。如果标准的改进对于多个分割是相同的,并且必须随机选择一个分割,则会出现这种情况。为了在拟合过程中获得确定的行为,- random_state必须固定为一个整数。详情请参见 词汇表。
- max_leaf_nodesint, default=None
- 以最佳优先的方式生成具有 - max_leaf_nodes个叶节点的树。最佳节点定义为杂质的相对减少。如果为None,则叶节点数量不受限制。
- min_impurity_decreasefloat, default=0.0
- 如果此分割导致杂质减少大于或等于此值,则将分割节点。 - 加权杂质减少方程如下: - N_t / N * (impurity - N_t_R / N_t * right_impurity - N_t_L / N_t * left_impurity) - 其中 - N表示样本总数,- N_t表示当前节点的样本数,- N_t_L表示左子节点的样本数,- N_t_R表示右子节点的样本数。- 如果传递了 - sample_weight,则- N、- N_t、- N_t_R和- N_t_L都指加权和。- 0.19版本新增。 
- class_weight字典、字典列表或“balanced”,默认为None
- 与类相关的权重,形式为 - {class_label: weight}。如果为None,则所有类的权重都假定为1。对于多输出问题,可以按y的列顺序提供字典列表。- 请注意,对于多输出(包括多标签),应在每个列的每个类中使用其自己的字典定义权重。例如,对于四类多标签分类,权重应为[{0: 1, 1: 1}, {0: 1, 1: 5}, {0: 1, 1: 1}, {0: 1, 1: 1}],而不是[{1:1}, {2:5}, {3:1}, {4:1}]。 - “balanced”模式使用y的值来自动调整权重,使其与输入数据中类的频率成反比,计算公式为 - n_samples / (n_classes * np.bincount(y))- 对于多输出,y的每一列的权重将相乘。 - 请注意,如果指定了sample_weight(通过fit方法传递),则这些权重将与sample_weight相乘。 
- ccp_alpha非负浮点数,默认为0.0
- 用于最小成本复杂度剪枝的复杂度参数。将选择成本复杂度小于 - ccp_alpha的最大成本复杂度子树。默认情况下,不执行剪枝。详情请参见最小成本复杂度剪枝。有关此类剪枝的示例,请参见使用成本复杂度剪枝的后剪枝决策树。- 0.22版本新增。 
- monotonic_cst形状为(n_features,)的整数型数组,默认为None
- 指示要对每个特征强制执行的单调性约束。
- 1:单调递增 
- 0:无约束 
- -1:单调递减 
 
 - 如果monotonic_cst为None,则不应用任何约束。 - 多类分类(即n_classes > 2)、
- 多输出分类(即 - n_outputs_ > 1)、
- 在包含缺失值的数据上训练的分类 
- 不支持单调性约束。 
 
 - 这些约束适用于正类的概率。 - 请阅读用户指南了解更多信息。 - 1.4版本新增。 
 
- 属性:
- classes_形状为(n_classes,)的ndarray或ndarray列表
- 类标签(单输出问题)或类标签数组列表(多输出问题)。 
- feature_importances_形状为(n_features,)的ndarray
- 返回特征重要性。 
- max_features_整数
- max_features的推断值。 
- n_classes_整数或整数列表
- 类的数量(对于单输出问题),或包含每个输出的类数量的列表(对于多输出问题)。 
- n_features_in_整数
- 在拟合期间看到的特征数量。 - 0.24版本新增。 
- feature_names_in_形状为(n_features_in_,)的ndarray
- 在拟合期间看到的特征名称。仅当 - X的特征名称全部为字符串时才定义。- 1.0版本新增。 
- n_outputs_整数
- 执行 - fit时的输出数量。
- tree_树实例
- 底层的树对象。有关树对象的属性,请参考 - help(sklearn.tree._tree.Tree),有关这些属性的基本用法,请参见理解决策树结构。
 
 - 另请参见 - 决策树回归器
- 决策树回归器。 
 - 备注 - 控制树大小的参数(例如 - max_depth、- min_samples_leaf等)的默认值会导致完全生长和未剪枝的树,在某些数据集上可能会非常大。为了减少内存消耗,应通过设置这些参数值来控制树的复杂性和大小。- predict方法使用- numpy.argmax函数对- predict_proba的输出进行操作。这意味着,如果预测概率最高的值相同,则分类器将预测classes_中索引最低的相同类。- 参考文献 [2]- L. Breiman, J. Friedman, R. Olshen和C. Stone,“分类和回归树”,Wadsworth,Belmont,CA,1984。 [3]- T. Hastie,R. Tibshirani和J. Friedman。“统计学习要素”,Springer,2009。 [4]- L. Breiman和A. Cutler,“随机森林”,https://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm - 示例 - >>> from sklearn.datasets import load_iris >>> from sklearn.model_selection import cross_val_score >>> from sklearn.tree import DecisionTreeClassifier >>> clf = DecisionTreeClassifier(random_state=0) >>> iris = load_iris() >>> cross_val_score(clf, iris.data, iris.target, cv=10) ... ... array([ 1. , 0.93..., 0.86..., 0.93..., 0.93..., 0.93..., 0.93..., 1. , 0.93..., 1. ]) - apply(X, check_input=True)[source]#
- 返回每个样本预测为的叶子的索引。 - 0.17版本新增。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csr_matrix。
- check_input布尔值,默认为 True
- 允许绕过一些输入检查。除非你知道自己在做什么,否则不要使用此参数。 
 
- 返回:
- X_leaves形状为 (n_samples,) 的类数组
- 对于 X 中的每个数据点 x,返回 x 最终所在的叶节点的索引。叶节点在 - [0; self.tree_.node_count)范围内编号,编号中可能存在间隙。
 
 
 - cost_complexity_pruning_path(X, y, sample_weight=None)[source]#
- 计算最小成本复杂度剪枝过程中的剪枝路径。 - 详情请参见 最小成本复杂度剪枝。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 训练输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csc_matrix。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
- 目标值(类别标签),可以是整数或字符串。 
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
- 样本权重。如果为 None,则样本权重相等。在搜索每个节点的分割时,会忽略那些会创建净权重为零或负的子节点的分割。如果分割会导致任何单个类别在任何子节点中具有负权重,则也会忽略该分割。 
 
- 返回:
- ccp_pathBunch
- 类似字典的对象,具有以下属性。 - ccp_alphasndarray
- 剪枝过程中子树的有效 alpha 值。 
- impuritiesndarray
- 对于 - ccp_alphas中对应的 alpha 值,子树叶节点的杂质总和。
 
 
- ccp_path
 
 - decision_path(X, check_input=True)[source]#
- 返回树中的决策路径。 - 0.18 版本新增。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csr_matrix。
- check_input布尔值,默认为 True
- 允许绕过一些输入检查。除非你知道自己在做什么,否则不要使用此参数。 
 
- 返回:
- indicator形状为 (n_samples, n_nodes) 的稀疏矩阵
- 返回一个节点指示符 CSR 矩阵,其中非零元素表示样本经过的节点。 
 
 
 - property feature_importances_#
- 返回特征重要性。 - 特征的重要性计算为该特征带来的标准(归一化)总减少量。也称为基尼重要性。 - 警告:对于高基数特征(许多唯一值),基于杂质的特征重要性可能会具有误导性。请考虑使用 - sklearn.inspection.permutation_importance作为替代方法。- 返回:
- feature_importances_形状为 (n_features,) 的 ndarray
- 特征带来的标准(基尼重要性)总减少量。 
 
 
 - fit(X, y, sample_weight=None, check_input=True)[source]#
- 根据训练集 (X, y) 构建决策树分类器。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 训练输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csc_matrix。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
- 目标值(类别标签),可以是整数或字符串。 
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
- 样本权重。如果为 None,则样本权重相等。在搜索每个节点的分割时,会忽略那些会创建净权重为零或负的子节点的分割。如果分割会导致任何单个类别在任何子节点中具有负权重,则也会忽略该分割。 
- check_input布尔值,默认为 True
- 允许绕过一些输入检查。除非你知道自己在做什么,否则不要使用此参数。 
 
- 返回:
- selfDecisionTreeClassifier
- 拟合后的估计器。 
 
 
 - get_metadata_routing()[source]#
- 获取此对象的元数据路由。 - 请查看 用户指南,了解路由机制的工作原理。 - 返回:
- routingMetadataRequest
- 一个 - MetadataRequest封装了路由信息。
 
 
 - get_params(deep=True)[source]#
- 获取此估计器的参数。 - 参数:
- deep布尔值,默认为 True
- 如果为 True,则将返回此估计器和包含的子对象(这些子对象也是估计器)的参数。 
 
- 返回:
- params字典
- 参数名称与其值的映射。 
 
 
 - predict(X, check_input=True)[source]#
- 预测 X 的类别或回归值。 - 对于分类模型,返回 X 中每个样本的预测类别。对于回归模型,返回基于 X 的预测值。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csr_matrix。
- check_input布尔值,默认为 True
- 允许绕过一些输入检查。除非你知道自己在做什么,否则不要使用此参数。 
 
- 返回:
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
- 预测的类别或预测值。 
 
 
 - predict_log_proba(X)[source]#
- 预测输入样本 X 的类别对数概率。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csr_matrix。
 
- 返回:
- proba形状为 (n_samples, n_classes) 的 ndarray 或 n_outputs 个此类数组的列表(如果 n_outputs > 1)
- 输入样本的类别对数概率。类别的顺序与属性 classes_ 中的顺序一致。 
 
 
 - predict_proba(X, check_input=True)[source]#
- 预测输入样本 X 的类别概率。 - 预测的类别概率是在叶节点中相同类别的样本的比例。 - 参数:
- X形状为 (n_samples, n_features) 的 {类数组, 稀疏矩阵}
- 输入样本。内部会将其转换为 - dtype=np.float32,如果提供的是稀疏矩阵,则转换为稀疏- csr_matrix。
- check_input布尔值,默认为 True
- 允许绕过一些输入检查。除非你知道自己在做什么,否则不要使用此参数。 
 
- 返回:
- proba形状为 (n_samples, n_classes) 的 ndarray 或 n_outputs 个此类数组的列表(如果 n_outputs > 1)
- 输入样本的类别概率。类别的顺序与属性 classes_ 中的顺序一致。 
 
 
 - score(X, y, sample_weight=None)[source]#
- 返回给定测试数据和标签上的平均准确率。 - 在多标签分类中,这是子集准确率,这是一个严格的指标,因为它要求对每个样本都正确预测每个标签集。 - 参数:
- X形状为 (n_samples, n_features) 的类数组
- 测试样本。 
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
- X的真实标签。
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
- 样本权重。 
 
- 返回:
- score浮点数
- self.predict(X)关于- y的平均准确率。
 
 
 - set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeClassifier[source]#
- 请求传递给 - fit方法的元数据。- 请注意,只有在 - enable_metadata_routing=True时(参见- sklearn.set_config)此方法才相关。请参阅 用户指南,了解路由机制的工作原理。- 每个参数的选项为 - True:请求元数据,如果提供则传递给- fit。如果未提供元数据,则忽略请求。
- False:不请求元数据,元估计器不会将其传递给- fit。
- None:不请求元数据,如果用户提供元数据,则元估计器将引发错误。
- str:元数据应使用此给定的别名而不是原始名称传递给元估计器。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求而无需更改其他参数。- 版本 1.3 中新增。 - 注意 - 仅当将此估计器用作元估计器的子估计器(例如,在 - Pipeline中使用)时,此方法才相关。否则,它无效。- 参数:
- sample_weightstr、True、False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED
- 在 - fit方法中- sample_weight参数的元数据路由。
 
- 返回:
- self对象
- 更新后的对象。 
 
 
 - set_params(**params)[source]#
- 设置此估计器的参数。 - 此方法适用于简单的估计器以及嵌套对象(例如 - Pipeline)。后者具有- <component>__<parameter>形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **params字典
- 估计器参数。 
 
- 返回:
- self估计器实例
- 估计器实例。 
 
 
 - set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') DecisionTreeClassifier[source]#
- 请求传递给 - score方法的元数据。- 请注意,只有在 - enable_metadata_routing=True时(参见- sklearn.set_config)此方法才相关。请参阅 用户指南,了解路由机制的工作原理。- 每个参数的选项为 - True:请求元数据,如果提供则传递给- score。如果未提供元数据,则忽略请求。
- False:不请求元数据,元估计器不会将其传递给- score。
- None:不请求元数据,如果用户提供元数据,则元估计器将引发错误。
- str:元数据应使用此给定的别名而不是原始名称传递给元估计器。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求而无需更改其他参数。- 版本 1.3 中新增。 - 注意 - 仅当将此估计器用作元估计器的子估计器(例如,在 - Pipeline中使用)时,此方法才相关。否则,它无效。- 参数:
- sample_weightstr、True、False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED
- 在 - score方法中- sample_weight参数的元数据路由。
 
- 返回:
- self对象
- 更新后的对象。 
 
 
 
 
     
 
 
 
 
 
 
 
 
 
