TunedThresholdClassifierCV#
- class sklearn.model_selection.TunedThresholdClassifierCV(estimator, *, scoring='balanced_accuracy', response_method='auto', thresholds=100, cv=None, refit=True, n_jobs=None, random_state=None, store_cv_results=False)[source]#
使用交叉验证后调整决策阈值的分类器。
此估计器通过优化二元指标(可能受另一个指标约束)来后调整用于将后验概率估计(即
predict_proba
的输出)或决策分数(即decision_function
的输出)转换为类别标签的决策阈值(截止点)。在用户指南中阅读更多内容。
版本 1.5 中新增。
- 参数:
- estimator估计器实例
要优化其在
predict
期间使用的决策阈值的分类器,无论是已拟合还是未拟合。- scoring字符串或可调用对象,默认值=”balanced_accuracy”
要优化的目标指标。可以是以下之一:
- response_method{“auto”, “decision_function”, “predict_proba”},默认值=”auto”
分类器
estimator
中对应于我们想要找到阈值的决策函数方法。它可以是:如果为
"auto"
,它将尝试为每个分类器按顺序调用"predict_proba"
或"decision_function"
。否则,为
"predict_proba"
或"decision_function"
之一。如果分类器未实现该方法,则会引发错误。
- thresholds整数或类数组,默认值=100
将分类器
method
的输出离散化时使用的决策阈值数量。传入类数组以手动指定要使用的阈值。- cv整数、浮点数、交叉验证生成器、可迭代对象或“prefit”,默认值=None
确定用于训练分类器的交叉验证分割策略。cv 的可能输入包括:
None
,使用默认的 5 折分层 K 折交叉验证;一个整数,指定分层 k 折中的折叠数;
一个浮点数,指定单个随机洗牌分割。浮点数应在 (0, 1) 之间,表示验证集的大小;
一个用作交叉验证生成器的对象;
一个生成训练、测试分割的可迭代对象;
"prefit"
,跳过交叉验证。
请参阅用户指南,了解此处可使用的各种交叉验证策略。
警告
使用
cv="prefit"
并为拟合estimator
和调整截止点传入相同数据集可能会导致不必要的过拟合。您可以参阅关于模型再拟合和交叉验证的考量以获取示例。此选项仅在用于拟合
estimator
的数据集与用于调整截止点(通过调用TunedThresholdClassifierCV.fit
)的数据集不同时使用。- refit布尔值,默认值=True
找到决策阈值后,是否在整个训练集上重新拟合分类器。请注意,在具有多个分割的交叉验证上强制
refit=False
将引发错误。同样,refit=True
与cv="prefit"
结合使用也将引发错误。- n_jobs整数,默认值=None
并行运行的作业数量。当
cv
表示交叉验证策略时,每个数据分割上的拟合和评分并行进行。None
表示 1,除非在joblib.parallel_backend
上下文中。-1
表示使用所有处理器。详见术语表。- random_state整数、RandomState 实例或 None,默认值=None
当
cv
为浮点数时,控制交叉验证的随机性。详见术语表。- store_cv_results布尔值,默认值=False
是否存储交叉验证过程中计算的所有分数和阈值。
- 属性:
- estimator_估计器实例
预测时使用的已拟合分类器。
- best_threshold_浮点数
新的决策阈值。
- best_score_浮点数或 None
在
best_threshold_
处评估的目标指标的最佳分数。- cv_results_字典或 None
一个字典,包含交叉验证过程中计算的分数和阈值。仅当
store_cv_results=True
时存在。键为"thresholds"
和"scores"
。classes_
形状为 (n_classes,) 的 ndarray类别标签。
- n_features_in_整数
拟合期间看到的特征数量。仅当底层估计器在拟合时公开此属性时才定义。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 拟合期间看到的特征名称。仅当底层估计器在拟合时公开此属性时才定义。
另请参阅
示例
>>> from sklearn.datasets import make_classification >>> from sklearn.ensemble import RandomForestClassifier >>> from sklearn.metrics import classification_report >>> from sklearn.model_selection import TunedThresholdClassifierCV, train_test_split >>> X, y = make_classification( ... n_samples=1_000, weights=[0.9, 0.1], class_sep=0.8, random_state=42 ... ) >>> X_train, X_test, y_train, y_test = train_test_split( ... X, y, stratify=y, random_state=42 ... ) >>> classifier = RandomForestClassifier(random_state=0).fit(X_train, y_train) >>> print(classification_report(y_test, classifier.predict(X_test))) precision recall f1-score support 0 0.94 0.99 0.96 224 1 0.80 0.46 0.59 26 accuracy 0.93 250 macro avg 0.87 0.72 0.77 250 weighted avg 0.93 0.93 0.92 250 >>> classifier_tuned = TunedThresholdClassifierCV( ... classifier, scoring="balanced_accuracy" ... ).fit(X_train, y_train) >>> print( ... f"Cut-off point found at {classifier_tuned.best_threshold_:.3f}" ... ) Cut-off point found at 0.342 >>> print(classification_report(y_test, classifier_tuned.predict(X_test))) precision recall f1-score support 0 0.96 0.95 0.96 224 1 0.61 0.65 0.63 26 accuracy 0.92 250 macro avg 0.78 0.80 0.79 250 weighted avg 0.92 0.92 0.92 250
- decision_function(X)[source]#
使用已拟合的估计器对
X
中的样本进行决策函数计算。- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
训练向量,其中
n_samples
是样本数量,n_features
是特征数量。
- 返回:
- decisions形状为 (n_samples,) 的 ndarray
已拟合估计器计算的决策函数。
- fit(X, y, **params)[source]#
拟合分类器。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
训练数据。
- y形状为 (n_samples,) 的类数组
目标值。
- **params字典
要传递给底层分类器
fit
方法的参数。
- 返回:
- self对象
返回 self 的实例。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看用户指南以了解路由机制的工作原理。
- 返回:
- routingMetadataRouter
一个封装路由信息的
MetadataRouter
。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认值=True
如果为 True,将返回此估计器以及所包含的作为估计器的子对象的参数。
- 返回:
- params字典
参数名称及其对应值。
- predict(X)[source]#
预测新样本的目标。
- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
样本,由
estimator.predict
接受。
- 返回:
- class_labels形状为 (n_samples,) 的 ndarray
预测的类别。
- predict_log_proba(X)[source]#
使用已拟合的估计器预测
X
的对数类别概率。- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
训练向量,其中
n_samples
是样本数量,n_features
是特征数量。
- 返回:
- log_probabilities形状为 (n_samples, n_classes) 的 ndarray
输入样本的对数类别概率。
- predict_proba(X)[source]#
使用已拟合的估计器预测
X
的类别概率。- 参数:
- X形状为 (n_samples, n_features) 的 {类数组,稀疏矩阵}
训练向量,其中
n_samples
是样本数量,n_features
是特征数量。
- 返回:
- probabilities形状为 (n_samples, n_classes) 的 ndarray
输入样本的类别概率。
- score(X, y, sample_weight=None)[source]#
返回所提供数据和标签上的准确率。
在多标签分类中,这是子集准确率,这是一个严格的指标,因为它要求每个样本的每个标签集都必须正确预测。
- 参数:
- X形状为 (n_samples, n_features) 的类数组
测试样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
X
的真实标签。- sample_weight形状为 (n_samples,) 的类数组,默认值=None
样本权重。
- 返回:
- score浮点数
self.predict(X)
相对于y
的平均准确率。
- set_params(**params)[source]#
设置此估计器的参数。
该方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **params字典
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') TunedThresholdClassifierCV [source]#
请求传递给
score
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时相关(请参阅sklearn.set_config
)。请参阅用户指南以了解路由机制的工作原理。每个参数的选项为:
True
: 请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略请求。False
: 不请求元数据,元估计器不会将其传递给score
。None
: 不请求元数据,如果用户提供,元估计器将引发错误。str
: 元数据应使用此给定别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有请求。这允许您更改某些参数的请求而不更改其他参数。版本 1.3 中新增。
注意
此方法仅在将此估计器用作元估计器的子估计器时相关,例如在
Pipeline
内部使用时。否则它没有效果。- 参数:
- sample_weight字符串、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
score
中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。