Huber 回归器#
- class sklearn.linear_model.HuberRegressor(*, epsilon=1.35, max_iter=100, alpha=0.0001, warm_start=False, fit_intercept=True, tol=1e-05)[source]#
对异常值具有鲁棒性的L2正则化线性回归模型。
Huber回归器针对满足
|(y - Xw - c) / sigma| < epsilon
的样本优化平方损失,针对满足|(y - Xw - c) / sigma| > epsilon
的样本优化绝对损失,其中模型系数w
、截距c
和尺度sigma
是需要优化的参数。参数sigma确保如果y按某个因子进行缩放,则无需重新缩放epsilon即可获得相同的鲁棒性。请注意,这并没有考虑到X的不同特征可能具有不同尺度的情况。Huber损失函数的优点是不受异常值的影响太大,同时又不完全忽略它们的影响。
在用户指南中了解更多信息
版本0.18中新增。
- 参数:
- epsilon浮点数,默认为1.35
参数epsilon控制应被分类为异常值的样本数量。epsilon越小,对异常值的鲁棒性越强。Epsilon必须在
[1, inf)
范围内。- max_iter整数,默认为100
scipy.optimize.minimize(method="L-BFGS-B")
应运行的最大迭代次数。- alpha浮点数,默认为0.0001
平方L2正则化的强度。请注意,惩罚等于
alpha * ||w||^2
。必须在[0, inf)
范围内。- warm_start布尔值,默认为False
如果需要重用先前使用的模型的存储属性,这将很有用。如果设置为False,则每次调用fit时都会重写系数。参见词汇表。
- fit_intercept布尔值,默认为True
是否拟合截距。如果数据已经围绕原点居中,则可以将其设置为False。
- tol浮点数,默认为1e-05
当
max{|proj g_i | i = 1, ..., n}
<=tol
时,迭代将停止,其中pg_i是投影梯度的第i个分量。
- 属性:
- coef_数组,形状(n_features,)
通过优化L2正则化Huber损失获得的特征。
- intercept_浮点数
偏差。
- scale_浮点数
|y - Xw - c|
缩减的比例。- n_features_in_整数
在拟合期间看到的特征数量。
版本0.24中新增。
- feature_names_in_形状为(
n_features_in_
,)的ndarray 在拟合期间看到的特征名称。仅当
X
具有全部为字符串的特征名称时才定义。版本1.0中新增。
- n_iter_整数
scipy.optimize.minimize(method="L-BFGS-B")
运行的迭代次数。版本0.20中的更改:在SciPy <= 1.0.0中,lbfgs迭代次数可能超过
max_iter
。n_iter_
现在最多报告max_iter
。- outliers_数组,形状(n_samples,)
一个布尔掩码,在将样本识别为异常值的地方设置为True。
另请参见
RANSACRegressor
RANSAC(RANdom SAmple Consensus)算法。
TheilSenRegressor
Theil-Sen估计器稳健的多元回归模型。
SGDRegressor
通过最小化具有SGD的正则化经验损失来拟合。
参考文献
[1]Peter J. Huber, Elvezio M. Ronchetti, 稳健统计伴随尺度估计,第172页
[2]Art B. Owen (2006), lasso和ridge回归的稳健混合体。https://statweb.stanford.edu/~owen/reports/hhu.pdf
示例
>>> import numpy as np >>> from sklearn.linear_model import HuberRegressor, LinearRegression >>> from sklearn.datasets import make_regression >>> rng = np.random.RandomState(0) >>> X, y, coef = make_regression( ... n_samples=200, n_features=2, noise=4.0, coef=True, random_state=0) >>> X[:4] = rng.uniform(10, 20, (4, 2)) >>> y[:4] = rng.uniform(10, 20, 4) >>> huber = HuberRegressor().fit(X, y) >>> huber.score(X, y) -7.284... >>> huber.predict(X[:1,]) array([806.7200...]) >>> linear = LinearRegression().fit(X, y) >>> print("True coefficients:", coef) True coefficients: [20.4923... 34.1698...] >>> print("Huber coefficients:", huber.coef_) Huber coefficients: [17.7906... 31.0106...] >>> print("Linear Regression coefficients:", linear.coef_) Linear Regression coefficients: [-1.9221... 7.0226...]
- fit(X, y, sample_weight=None)[source]#
根据给定的训练数据拟合模型。
- 参数:
- X类数组,形状(n_samples, n_features)
训练向量,其中
n_samples
是样本数,n_features
是特征数。- y类数组,形状(n_samples,)
相对于X的目标向量。
- sample_weight类数组,形状(n_samples,)
赋予每个样本的权重。
- 返回值:
- self对象
已拟合的
HuberRegressor
估计器。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看用户指南,了解路由机制的工作原理。
- 返回值:
- routingMetadataRequest
一个
MetadataRequest
,封装了路由信息。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认为 True
如果为 True,则将返回此估计器和包含的子对象(也是估计器)的参数。
- 返回值:
- params字典
参数名称与其值的映射。
- predict(X)[source]#
使用线性模型进行预测。
- 参数:
- X类数组或稀疏矩阵,形状 (n_samples, n_features)
样本。
- 返回值:
- C数组,形状 (n_samples,)
返回预测值。
- score(X, y, sample_weight=None)[source]#
返回预测的决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,而 \(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最佳分数为 1.0,也可能为负值(因为模型可以任意差)。一个始终预测y
期望值的常数模型(忽略输入特征)将获得 0.0 的 \(R^2\) 分数。- 参数:
- X形状为 (n_samples, n_features) 的类数组
测试样本。对于某些估计器,这可能是预计算的核矩阵或形状为
(n_samples, n_samples_fitted)
的泛型对象列表,其中n_samples_fitted
是估计器拟合中使用的样本数。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
X
的真实值。- sample_weight形状为 (n_samples,) 的类数组,默认为 None
样本权重。
- 返回值:
- score浮点数
self.predict(X)
相对于y
的 \(R^2\)。
备注
从 0.23 版本开始,在回归器上调用
score
时使用的 \(R^2\) 分数使用multioutput='uniform_average'
,以保持与r2_score
的默认值一致。这会影响所有多输出回归器的score
方法(MultiOutputRegressor
除外)。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor [source]#
请求传递给
fit
方法的元数据。请注意,只有在
enable_metadata_routing=True
时(参见sklearn.set_config
)此方法才相关。请参见用户指南,了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给fit
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此别名传递给元估计器,而不是使用原始名称。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有的请求。这允许您更改某些参数的请求,而不对其他参数进行更改。1.3 版本中新增。
注意
仅当此估计器用作元估计器的子估计器时,此方法才相关,例如,在
Pipeline
中使用。否则,它没有效果。- 参数:
- sample_weightstr、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
fit
中sample_weight
参数的元数据路由。
- 返回值:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计器参数。
- 返回值:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor [source]#
请求传递给
score
方法的元数据。请注意,只有在
enable_metadata_routing=True
时(参见sklearn.set_config
)此方法才相关。请参见用户指南,了解路由机制的工作原理。每个参数的选项为
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此别名传递给元估计器,而不是使用原始名称。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有的请求。这允许您更改某些参数的请求,而不对其他参数进行更改。1.3 版本中新增。
注意
仅当此估计器用作元估计器的子估计器时,此方法才相关,例如,在
Pipeline
中使用。否则,它没有效果。- 参数:
- sample_weightstr、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
score
中sample_weight
参数的元数据路由。
- 返回值:
- self对象
更新后的对象。
图库示例#
具有强烈异常值的集合上的 HuberRegressor 与 Ridge 的比较