VotingClassifier#

class sklearn.ensemble.VotingClassifier(estimators, *, voting='hard', weights=None, n_jobs=None, flatten_transform=True, verbose=False)[source]#

用于未拟合估计器的软投票/多数规则分类器。

用户指南中阅读更多内容。

0.17 版本新增。

参数:
estimators(字符串,估计器)元组列表

VotingClassifier 上调用 fit 方法将拟合原始估计器的克隆,这些克隆将存储在类属性 self.estimators_ 中。可以使用 set_params 将估计器设置为 'drop'

0.21 版本更改: 接受 'drop'。在 0.22 版本中,使用 None 已被弃用,并在 0.24 版本中移除支持。

voting{'hard'(硬投票),'soft'(软投票)},默认为'hard'

如果为'hard'(硬投票),则使用预测的类别标签进行多数规则投票。否则,如果为'soft'(软投票),则根据预测概率之和的 argmax 预测类别标签,这对于由良好校准的分类器组成的集成是推荐的。

weights形状为 (n_classifiers,) 的类数组,默认为 None

权重序列(floatint),用于加权预测类别标签的出现次数(hard 硬投票)或在平均之前加权类别概率(soft 软投票)。如果为 None,则使用统一权重。

n_jobs整型,默认为 None

并行运行 fit 的作业数。None 表示 1,除非在 joblib.parallel_backend 上下文。 -1 表示使用所有处理器。有关更多详细信息,请参阅术语表

0.18 版本新增。

flatten_transform布尔型,默认为 True

仅当 voting='soft' 时影响 transform 输出的形状。如果 voting='soft' 且 flatten_transform=True,则 transform 方法返回形状为 (n_samples, n_classifiers * n_classes) 的矩阵。如果 flatten_transform=False,则返回 (n_classifiers, n_samples, n_classes)。

verbose布尔型,默认为 False

如果为 True,则在拟合完成后将打印所花费的时间。

0.23 版本新增。

属性:
estimators_分类器列表

estimators 中定义的、不是 ‘drop’ 的已拟合子估计器集合。

named_estimators_Bunch

通过名称访问任何已拟合子估计器的属性。

0.20 版本新增。

le_LabelEncoder

在拟合期间用于编码标签并在预测期间用于解码标签的转换器。

classes_形状为 (n_classes,) 的 ndarray

类别标签。

n_features_in_整型

拟合期间观察到的特征数量。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间观察到的特征名称。仅当底层估计器在拟合时暴露此属性时才定义。

1.0 版本新增。

另请参阅

VotingRegressor

预测投票回归器。

示例

>>> import numpy as np
>>> from sklearn.linear_model import LogisticRegression
>>> from sklearn.naive_bayes import GaussianNB
>>> from sklearn.ensemble import RandomForestClassifier, VotingClassifier
>>> clf1 = LogisticRegression(random_state=1)
>>> clf2 = RandomForestClassifier(n_estimators=50, random_state=1)
>>> clf3 = GaussianNB()
>>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> y = np.array([1, 1, 1, 2, 2, 2])
>>> eclf1 = VotingClassifier(estimators=[
...         ('lr', clf1), ('rf', clf2), ('gnb', clf3)], voting='hard')
>>> eclf1 = eclf1.fit(X, y)
>>> print(eclf1.predict(X))
[1 1 1 2 2 2]
>>> np.array_equal(eclf1.named_estimators_.lr.predict(X),
...                eclf1.named_estimators_['lr'].predict(X))
True
>>> eclf2 = VotingClassifier(estimators=[
...         ('lr', clf1), ('rf', clf2), ('gnb', clf3)],
...         voting='soft')
>>> eclf2 = eclf2.fit(X, y)
>>> print(eclf2.predict(X))
[1 1 1 2 2 2]

要删除一个估计器,可以使用 set_params。这里我们删除了一个估计器,从而得到 2 个已拟合的估计器

>>> eclf2 = eclf2.set_params(lr='drop')
>>> eclf2 = eclf2.fit(X, y)
>>> len(eclf2.estimators_)
2

flatten_transform=Truevoting='soft' 结合使用会平坦化 transform 的输出形状

>>> eclf3 = VotingClassifier(estimators=[
...        ('lr', clf1), ('rf', clf2), ('gnb', clf3)],
...        voting='soft', weights=[2,1,1],
...        flatten_transform=True)
>>> eclf3 = eclf3.fit(X, y)
>>> print(eclf3.predict(X))
[1 1 1 2 2 2]
>>> print(eclf3.transform(X).shape)
(6, 6)
fit(X, y, **fit_params)[source]#

拟合估计器。

参数:
X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}

训练向量,其中 n_samples 是样本数量,n_features 是特征数量。

y形状为 (n_samples,) 的类数组

目标值。

**fit_params字典

传递给底层估计器的参数。

1.5 版本新增: 仅当 enable_metadata_routing=True 时可用,可通过使用 sklearn.set_config(enable_metadata_routing=True) 设置。有关更多详细信息,请参阅元数据路由用户指南

返回:
self对象

返回实例本身。

fit_transform(X, y=None, **fit_params)[source]#

返回每个估计器的类别标签或概率。

返回每个估计器对 X 的预测。

参数:
X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵,数据帧}

输入样本。

y形状为 (n_samples,) 的 ndarray,默认为 None

目标值(对于无监督转换,为 None)。

**fit_params字典

额外的拟合参数。

返回:
X_new形状为 (n_samples, n_features_new) 的 ndarray 数组

转换后的数组。

get_feature_names_out(input_features=None)[source]#

获取转换的输出特征名称。

参数:
input_features字符串或 None 的类数组,默认为 None

未使用,按约定在此处用于 API 一致性。

返回:
feature_names_out字符串对象组成的 ndarray

转换后的特征名称。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看用户指南,了解路由机制的工作原理。

1.5 版本新增。

返回:
routingMetadataRouter

一个封装路由信息的 MetadataRouter

get_params(deep=True)[source]#

从集成中获取估计器的参数。

返回构造函数中给定的参数以及 estimators 参数中包含的估计器。

参数:
deep布尔型,默认为 True

将其设置为 True 可获取各种估计器以及估计器的参数。

返回:
params字典

参数和估计器名称映射到它们的值,或参数名称映射到它们的值。

property named_estimators#

用于按名称访问任何已拟合子估计器的字典。

返回:
Bunch
predict(X)[source]#

预测 X 的类别标签。

参数:
X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}

输入样本。

返回:
maj形状为 (n_samples,) 的类数组

预测的类别标签。

predict_proba(X)[source]#

计算 X 中样本的可能结果概率。

参数:
X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}

输入样本。

返回:
avg形状为 (n_samples, n_classes) 的类数组

每个样本的每个类别的加权平均概率。

score(X, y, sample_weight=None)[source]#

返回所提供数据和标签的准确率

在多标签分类中,这是子集准确率,这是一个严格的度量标准,因为它要求每个样本的每个标签集都必须正确预测。

参数:
X形状为 (n_samples, n_features) 的类数组

测试样本。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

X 的真实标签。

sample_weight形状为 (n_samples,) 的类数组,默认为 None

样本权重。

返回:
score浮点型

self.predict(X) 相对于 y 的平均准确率。

set_output(*, transform=None)[source]#

设置输出容器。

有关如何使用 API 的示例,请参阅介绍 set_output API

参数:
transform{'default', 'pandas', 'polars'},默认为 None

配置 transformfit_transform 的输出。

  • "default": 转换器的默认输出格式

  • "pandas": DataFrame 输出

  • "polars": Polars 输出

  • None: 转换配置不变

1.4 版本新增: 添加了 "polars" 选项。

返回:
self估计器实例

估计器实例。

set_params(**params)[source]#

设置集成中估计器的参数。

有效参数键可以通过 get_params() 列出。请注意,您可以直接设置 estimators 中包含的估计器的参数。

参数:
**params关键字参数

使用例如 set_params(parameter_name=new_value) 设置特定参数。此外,除了设置估计器的参数外,还可以设置估计器的单个估计器,或者通过将其设置为 ‘drop’ 来移除。

返回:
self对象

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') VotingClassifier[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(参见 sklearn.set_config)。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项为

  • True: 请求元数据,如果提供则传递给 score。如果未提供元数据,则忽略该请求。

  • False: 不请求元数据,并且元估计器不会将其传递给 score

  • None: 不请求元数据,如果用户提供元数据,则元估计器将引发错误。

  • str: 元数据应以这个给定别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用时。否则,它没有效果。

参数:
sample_weight字符串,True,False 或 None,默认为 sklearn.utils.metadata_routing.UNCHANGED

scoresample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。

transform(X)[source]#

返回每个估计器对 X 的类别标签或概率。

参数:
X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}

训练向量,其中 n_samples 是样本数量,n_features 是特征数量。

返回:
概率或标签
如果 voting='soft'flatten_transform=True

返回形状为 (n_samples, n_classifiers * n_classes) 的 ndarray,即每个分类器计算的类别概率。

如果 voting='soft' and `flatten_transform=False

形状为 (n_classifiers, n_samples, n_classes) 的 ndarray

如果 voting='hard'

形状为 (n_samples, n_classifiers) 的 ndarray,即每个分类器预测的类别标签。