HuberRegressor#
- class sklearn.linear_model.HuberRegressor(*, epsilon=1.35, max_iter=100, alpha=0.0001, warm_start=False, fit_intercept=True, tol=1e-05)[source]#
对异常值具有鲁棒性的L2正则化线性回归模型。
HuberRegressor 为满足
|(y - Xw - c) / sigma| < epsilon
的样本优化平方损失,为满足|(y - Xw - c) / sigma| > epsilon
的样本优化绝对损失。其中,模型系数w
、截距c
和尺度sigma
是要优化的参数。参数sigma
确保如果y
按一定因子缩放,则无需重新缩放epsilon
即可实现相同的鲁棒性。请注意,这没有考虑X
的不同特征可能具有不同尺度的事实。Huber 损失函数的优点是它不受异常值的严重影响,同时也没有完全忽略它们的作用。
在用户指南中阅读更多信息
0.18 版本新增。
- 参数:
- epsilon浮点数,默认值=1.35
参数 epsilon 控制应被分类为异常值的样本数量。epsilon 越小,对异常值的鲁棒性越强。epsilon 必须在
[1, inf)
范围内。- max_iter整数,默认值=100
scipy.optimize.minimize(method="L-BFGS-B")
应运行的最大迭代次数。- alpha浮点数,默认值=0.0001
L2 平方正则化的强度。请注意,惩罚项等于
alpha * ||w||^2
。必须在[0, inf)
范围内。- warm_start布尔值,默认值=False
如果需要重用先前使用过的模型的存储属性,这会很有用。如果设置为 False,则每次调用 fit 时都会重新写入系数。请参阅术语表。
- fit_intercept布尔值,默认值=True
是否拟合截距。如果数据已经以原点为中心,则可以将其设置为 False。
- tol浮点数,默认值=1e-05
当
max{|proj g_i | i = 1, ..., n}
<=tol
时,迭代将停止,其中 pg_i 是投影梯度的第 i 个分量。
- 属性:
- coef_数组,形状 (n_features,)
通过优化 L2 正则化 Huber 损失获得的特征。
- intercept_浮点数
偏差。
- scale_浮点数
|y - Xw - c|
被缩小的因子。- n_features_in_整数
拟合期间看到的特征数量。
0.24 版本新增。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 拟合期间看到的特征名称。仅当
X
的所有特征名称均为字符串时定义。1.0 版本新增。
- n_iter_整数
scipy.optimize.minimize(method="L-BFGS-B")
已运行的迭代次数。0.20 版本修改:在 SciPy <= 1.0.0 中,lbfgs 迭代次数可能超过
max_iter
。n_iter_
现在最多报告max_iter
。- outliers_数组,形状 (n_samples,)
一个布尔掩码,其中样本被识别为异常值的位置设置为 True。
另请参阅
RANSACRegressor
RANSAC (RANdom SAmple Consensus) 算法。
TheilSenRegressor
Theil-Sen 估计器鲁棒多元回归模型。
SGDRegressor
通过使用 SGD 最小化正则化经验损失进行拟合。
参考文献
[1]Peter J. Huber, Elvezio M. Ronchetti, Robust Statistics Concomitant scale estimates, p. 172
[2]Art B. Owen (2006), Lasso 和 Ridge 回归的鲁棒混合模型。
示例
>>> import numpy as np >>> from sklearn.linear_model import HuberRegressor, LinearRegression >>> from sklearn.datasets import make_regression >>> rng = np.random.RandomState(0) >>> X, y, coef = make_regression( ... n_samples=200, n_features=2, noise=4.0, coef=True, random_state=0) >>> X[:4] = rng.uniform(10, 20, (4, 2)) >>> y[:4] = rng.uniform(10, 20, 4) >>> huber = HuberRegressor().fit(X, y) >>> huber.score(X, y) -7.284 >>> huber.predict(X[:1,]) array([806.7200]) >>> linear = LinearRegression().fit(X, y) >>> print("True coefficients:", coef) True coefficients: [20.4923... 34.1698...] >>> print("Huber coefficients:", huber.coef_) Huber coefficients: [17.7906... 31.0106...] >>> print("Linear Regression coefficients:", linear.coef_) Linear Regression coefficients: [-1.9221... 7.0226...]
- fit(X, y, sample_weight=None)[source]#
根据给定的训练数据拟合模型。
- 参数:
- X类数组,形状 (n_samples, n_features)
训练向量,其中
n_samples
是样本数量,n_features
是特征数量。- y类数组,形状 (n_samples,)
相对于 X 的目标向量。
- sample_weight类数组,形状 (n_samples,)
赋予每个样本的权重。
- 返回:
- self对象
拟合后的
HuberRegressor
估计器。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看 用户指南 以了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个封装路由信息的
MetadataRequest
。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认值=True
如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。
- 返回:
- params字典
参数名称映射到其值。
- predict(X)[source]#
使用线性模型进行预测。
- 参数:
- X类数组或稀疏矩阵,形状 (n_samples, n_features)
样本。
- 返回:
- C数组,形状 (n_samples,)
返回预测值。
- score(X, y, sample_weight=None)[source]#
返回测试数据上的 决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,\(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最佳可能分数为 1.0,它也可以是负数(因为模型可能任意差)。一个总是预测y
期望值而不考虑输入特征的常数模型将获得 0.0 的 \(R^2\) 分数。- 参数:
- X形状为 (n_samples, n_features) 的类数组
测试样本。对于某些估计器,这可能是一个预先计算的核矩阵,或者是一个通用对象列表,其形状为
(n_samples, n_samples_fitted)
,其中n_samples_fitted
是用于估计器拟合的样本数量。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
X
的真实值。- sample_weight形状为 (n_samples,) 的类数组,默认值=None
样本权重。
- 返回:
- score浮点数
self.predict(X)
相对于y
的 \(R^2\) 分数。
说明
在回归器上调用
score
时使用的 \(R^2\) 分数从 0.23 版本开始使用multioutput='uniform_average'
,以与r2_score
的默认值保持一致。这影响了所有多输出回归器(MultiOutputRegressor
除外)的score
方法。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor [source]#
请求传递给
fit
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时相关(请参阅sklearn.set_config
)。请参阅 用户指南 以了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略该请求。False
:不请求元数据,并且元估计器不会将其传递给fit
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应以给定别名而非原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED
) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。1.3 版本新增。
注意
此方法仅当此估计器用作元估计器的子估计器时才相关,例如在
Pipeline
内部使用时。否则,它没有效果。- 参数:
- sample_weightstr, True, False, 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
fit
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单估计器以及嵌套对象(如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,以便可以更新嵌套对象的每个组件。- 参数:
- **params字典
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor [source]#
请求传递给
score
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时相关(请参阅sklearn.set_config
)。请参阅 用户指南 以了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略该请求。False
:不请求元数据,并且元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应以给定别名而非原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED
) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。1.3 版本新增。
注意
此方法仅当此估计器用作元估计器的子估计器时才相关,例如在
Pipeline
内部使用时。否则,它没有效果。- 参数:
- sample_weightstr, True, False, 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。