HuberRegressor#

class sklearn.linear_model.HuberRegressor(*, epsilon=1.35, max_iter=100, alpha=0.0001, warm_start=False, fit_intercept=True, tol=1e-05)[source]#

对异常值具有鲁棒性的L2正则化线性回归模型。

HuberRegressor 为满足 |(y - Xw - c) / sigma| < epsilon 的样本优化平方损失,为满足 |(y - Xw - c) / sigma| > epsilon 的样本优化绝对损失。其中,模型系数 w、截距 c 和尺度 sigma 是要优化的参数。参数 sigma 确保如果 y 按一定因子缩放,则无需重新缩放 epsilon 即可实现相同的鲁棒性。请注意,这没有考虑 X 的不同特征可能具有不同尺度的事实。

Huber 损失函数的优点是它不受异常值的严重影响,同时也没有完全忽略它们的作用。

用户指南中阅读更多信息

0.18 版本新增。

参数:
epsilon浮点数,默认值=1.35

参数 epsilon 控制应被分类为异常值的样本数量。epsilon 越小,对异常值的鲁棒性越强。epsilon 必须在 [1, inf) 范围内。

max_iter整数,默认值=100

scipy.optimize.minimize(method="L-BFGS-B") 应运行的最大迭代次数。

alpha浮点数,默认值=0.0001

L2 平方正则化的强度。请注意,惩罚项等于 alpha * ||w||^2。必须在 [0, inf) 范围内。

warm_start布尔值,默认值=False

如果需要重用先前使用过的模型的存储属性,这会很有用。如果设置为 False,则每次调用 fit 时都会重新写入系数。请参阅术语表

fit_intercept布尔值,默认值=True

是否拟合截距。如果数据已经以原点为中心,则可以将其设置为 False。

tol浮点数,默认值=1e-05

max{|proj g_i | i = 1, ..., n} <= tol 时,迭代将停止,其中 pg_i 是投影梯度的第 i 个分量。

属性:
coef_数组,形状 (n_features,)

通过优化 L2 正则化 Huber 损失获得的特征。

intercept_浮点数

偏差。

scale_浮点数

|y - Xw - c| 被缩小的因子。

n_features_in_整数

拟合期间看到的特征数量。

0.24 版本新增。

feature_names_in_形状为 (n_features_in_,) 的 ndarray

拟合期间看到的特征名称。仅当 X 的所有特征名称均为字符串时定义。

1.0 版本新增。

n_iter_整数

scipy.optimize.minimize(method="L-BFGS-B") 已运行的迭代次数。

0.20 版本修改:在 SciPy <= 1.0.0 中,lbfgs 迭代次数可能超过 max_itern_iter_ 现在最多报告 max_iter

outliers_数组,形状 (n_samples,)

一个布尔掩码,其中样本被识别为异常值的位置设置为 True。

另请参阅

RANSACRegressor

RANSAC (RANdom SAmple Consensus) 算法。

TheilSenRegressor

Theil-Sen 估计器鲁棒多元回归模型。

SGDRegressor

通过使用 SGD 最小化正则化经验损失进行拟合。

参考文献

[1]

Peter J. Huber, Elvezio M. Ronchetti, Robust Statistics Concomitant scale estimates, p. 172

示例

>>> import numpy as np
>>> from sklearn.linear_model import HuberRegressor, LinearRegression
>>> from sklearn.datasets import make_regression
>>> rng = np.random.RandomState(0)
>>> X, y, coef = make_regression(
...     n_samples=200, n_features=2, noise=4.0, coef=True, random_state=0)
>>> X[:4] = rng.uniform(10, 20, (4, 2))
>>> y[:4] = rng.uniform(10, 20, 4)
>>> huber = HuberRegressor().fit(X, y)
>>> huber.score(X, y)
-7.284
>>> huber.predict(X[:1,])
array([806.7200])
>>> linear = LinearRegression().fit(X, y)
>>> print("True coefficients:", coef)
True coefficients: [20.4923...  34.1698...]
>>> print("Huber coefficients:", huber.coef_)
Huber coefficients: [17.7906... 31.0106...]
>>> print("Linear Regression coefficients:", linear.coef_)
Linear Regression coefficients: [-1.9221...  7.0226...]
fit(X, y, sample_weight=None)[source]#

根据给定的训练数据拟合模型。

参数:
X类数组,形状 (n_samples, n_features)

训练向量,其中 n_samples 是样本数量,n_features 是特征数量。

y类数组,形状 (n_samples,)

相对于 X 的目标向量。

sample_weight类数组,形状 (n_samples,)

赋予每个样本的权重。

返回:
self对象

拟合后的 HuberRegressor 估计器。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看 用户指南 以了解路由机制的工作原理。

返回:
routingMetadataRequest

一个封装路由信息的 MetadataRequest

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔值,默认值=True

如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。

返回:
params字典

参数名称映射到其值。

predict(X)[source]#

使用线性模型进行预测。

参数:
X类数组或稀疏矩阵,形状 (n_samples, n_features)

样本。

返回:
C数组,形状 (n_samples,)

返回预测值。

score(X, y, sample_weight=None)[source]#

返回测试数据上的 决定系数

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum()\(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳可能分数为 1.0,它也可以是负数(因为模型可能任意差)。一个总是预测 y 期望值而不考虑输入特征的常数模型将获得 0.0 的 \(R^2\) 分数。

参数:
X形状为 (n_samples, n_features) 的类数组

测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个通用对象列表,其形状为 (n_samples, n_samples_fitted),其中 n_samples_fitted 是用于估计器拟合的样本数量。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组

X 的真实值。

sample_weight形状为 (n_samples,) 的类数组,默认值=None

样本权重。

返回:
score浮点数

self.predict(X) 相对于 y\(R^2\) 分数。

说明

在回归器上调用 score 时使用的 \(R^2\) 分数从 0.23 版本开始使用 multioutput='uniform_average',以与 r2_score 的默认值保持一致。这影响了所有多输出回归器(MultiOutputRegressor 除外)的 score 方法。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor[source]#

请求传递给 fit 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(请参阅 sklearn.set_config)。请参阅 用户指南 以了解路由机制的工作原理。

每个参数的选项为

  • True:请求元数据,如果提供则传递给 fit。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,并且元估计器不会将其传递给 fit

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定别名而非原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用时。否则,它没有效果。

参数:
sample_weightstr, True, False, 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

fit 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单估计器以及嵌套对象(如 Pipeline)。后者具有 <component>__<parameter> 形式的参数,以便可以更新嵌套对象的每个组件。

参数:
**params字典

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor[source]#

请求传递给 score 方法的元数据。

请注意,此方法仅在 enable_metadata_routing=True 时相关(请参阅 sklearn.set_config)。请参阅 用户指南 以了解路由机制的工作原理。

每个参数的选项为

  • True:请求元数据,如果提供则传递给 score。如果未提供元数据,则忽略该请求。

  • False:不请求元数据,并且元估计器不会将其传递给 score

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应以给定别名而非原始名称传递给元估计器。

默认值 (sklearn.utils.metadata_routing.UNCHANGED) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。

1.3 版本新增。

注意

此方法仅当此估计器用作元估计器的子估计器时才相关,例如在 Pipeline 内部使用时。否则,它没有效果。

参数:
sample_weightstr, True, False, 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED

score 方法中 sample_weight 参数的元数据路由。

返回:
self对象

更新后的对象。