Huber 回归器#
- class sklearn.linear_model.HuberRegressor(*, epsilon=1.35, max_iter=100, alpha=0.0001, warm_start=False, fit_intercept=True, tol=1e-05)[source]#
- 对异常值具有鲁棒性的L2正则化线性回归模型。 - Huber回归器针对满足 - |(y - Xw - c) / sigma| < epsilon的样本优化平方损失,针对满足- |(y - Xw - c) / sigma| > epsilon的样本优化绝对损失,其中模型系数- w、截距- c和尺度- sigma是需要优化的参数。参数sigma确保如果y按某个因子进行缩放,则无需重新缩放epsilon即可获得相同的鲁棒性。请注意,这并没有考虑到X的不同特征可能具有不同尺度的情况。- Huber损失函数的优点是不受异常值的影响太大,同时又不完全忽略它们的影响。 - 在用户指南中了解更多信息 - 版本0.18中新增。 - 参数:
- epsilon浮点数,默认为1.35
- 参数epsilon控制应被分类为异常值的样本数量。epsilon越小,对异常值的鲁棒性越强。Epsilon必须在 - [1, inf)范围内。
- max_iter整数,默认为100
- scipy.optimize.minimize(method="L-BFGS-B")应运行的最大迭代次数。
- alpha浮点数,默认为0.0001
- 平方L2正则化的强度。请注意,惩罚等于 - alpha * ||w||^2。必须在- [0, inf)范围内。
- warm_start布尔值,默认为False
- 如果需要重用先前使用的模型的存储属性,这将很有用。如果设置为False,则每次调用fit时都会重写系数。参见词汇表。 
- fit_intercept布尔值,默认为True
- 是否拟合截距。如果数据已经围绕原点居中,则可以将其设置为False。 
- tol浮点数,默认为1e-05
- 当 - max{|proj g_i | i = 1, ..., n}<=- tol时,迭代将停止,其中pg_i是投影梯度的第i个分量。
 
- 属性:
- coef_数组,形状(n_features,)
- 通过优化L2正则化Huber损失获得的特征。 
- intercept_浮点数
- 偏差。 
- scale_浮点数
- |y - Xw - c|缩减的比例。
- n_features_in_整数
- 在拟合期间看到的特征数量。 - 版本0.24中新增。 
- feature_names_in_形状为(n_features_in_,)的ndarray
- 在拟合期间看到的特征名称。仅当 - X具有全部为字符串的特征名称时才定义。- 版本1.0中新增。 
- n_iter_整数
- scipy.optimize.minimize(method="L-BFGS-B")运行的迭代次数。- 版本0.20中的更改:在SciPy <= 1.0.0中,lbfgs迭代次数可能超过 - max_iter。- n_iter_现在最多报告- max_iter。
- outliers_数组,形状(n_samples,)
- 一个布尔掩码,在将样本识别为异常值的地方设置为True。 
 
 - 另请参见 - RANSACRegressor
- RANSAC(RANdom SAmple Consensus)算法。 
- TheilSenRegressor
- Theil-Sen估计器稳健的多元回归模型。 
- SGDRegressor
- 通过最小化具有SGD的正则化经验损失来拟合。 
 - 参考文献 [1]- Peter J. Huber, Elvezio M. Ronchetti, 稳健统计伴随尺度估计,第172页 [2]- Art B. Owen (2006), lasso和ridge回归的稳健混合体。https://statweb.stanford.edu/~owen/reports/hhu.pdf - 示例 - >>> import numpy as np >>> from sklearn.linear_model import HuberRegressor, LinearRegression >>> from sklearn.datasets import make_regression >>> rng = np.random.RandomState(0) >>> X, y, coef = make_regression( ... n_samples=200, n_features=2, noise=4.0, coef=True, random_state=0) >>> X[:4] = rng.uniform(10, 20, (4, 2)) >>> y[:4] = rng.uniform(10, 20, 4) >>> huber = HuberRegressor().fit(X, y) >>> huber.score(X, y) -7.284... >>> huber.predict(X[:1,]) array([806.7200...]) >>> linear = LinearRegression().fit(X, y) >>> print("True coefficients:", coef) True coefficients: [20.4923... 34.1698...] >>> print("Huber coefficients:", huber.coef_) Huber coefficients: [17.7906... 31.0106...] >>> print("Linear Regression coefficients:", linear.coef_) Linear Regression coefficients: [-1.9221... 7.0226...] - fit(X, y, sample_weight=None)[source]#
- 根据给定的训练数据拟合模型。 - 参数:
- X类数组,形状(n_samples, n_features)
- 训练向量,其中 - n_samples是样本数,- n_features是特征数。
- y类数组,形状(n_samples,)
- 相对于X的目标向量。 
- sample_weight类数组,形状(n_samples,)
- 赋予每个样本的权重。 
 
- 返回值:
- self对象
- 已拟合的 - HuberRegressor估计器。
 
 
 - get_metadata_routing()[source]#
- 获取此对象的元数据路由。 - 请查看用户指南,了解路由机制的工作原理。 - 返回值:
- routingMetadataRequest
- 一个 - MetadataRequest,封装了路由信息。
 
 
 - get_params(deep=True)[source]#
- 获取此估计器的参数。 - 参数:
- deep布尔值,默认为 True
- 如果为 True,则将返回此估计器和包含的子对象(也是估计器)的参数。 
 
- 返回值:
- params字典
- 参数名称与其值的映射。 
 
 
 - predict(X)[source]#
- 使用线性模型进行预测。 - 参数:
- X类数组或稀疏矩阵,形状 (n_samples, n_features)
- 样本。 
 
- 返回值:
- C数组,形状 (n_samples,)
- 返回预测值。 
 
 
 - score(X, y, sample_weight=None)[source]#
- 返回预测的决定系数。 - 决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 - ((y_true - y_pred)** 2).sum(),而 \(v\) 是总平方和- ((y_true - y_true.mean()) ** 2).sum()。最佳分数为 1.0,也可能为负值(因为模型可以任意差)。一个始终预测- y期望值的常数模型(忽略输入特征)将获得 0.0 的 \(R^2\) 分数。- 参数:
- X形状为 (n_samples, n_features) 的类数组
- 测试样本。对于某些估计器,这可能是预计算的核矩阵或形状为 - (n_samples, n_samples_fitted)的泛型对象列表,其中- n_samples_fitted是估计器拟合中使用的样本数。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的类数组
- X的真实值。
- sample_weight形状为 (n_samples,) 的类数组,默认为 None
- 样本权重。 
 
- 返回值:
- score浮点数
- self.predict(X)相对于- y的 \(R^2\)。
 
 - 备注 - 从 0.23 版本开始,在回归器上调用 - score时使用的 \(R^2\) 分数使用- multioutput='uniform_average',以保持与- r2_score的默认值一致。这会影响所有多输出回归器的- score方法(- MultiOutputRegressor除外)。
 - set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor[source]#
- 请求传递给 - fit方法的元数据。- 请注意,只有在 - enable_metadata_routing=True时(参见- sklearn.set_config)此方法才相关。请参见用户指南,了解路由机制的工作原理。- 每个参数的选项为 - True:请求元数据,如果提供则传递给- fit。如果未提供元数据,则忽略请求。
- False:不请求元数据,元估计器不会将其传递给- fit。
- None:不请求元数据,如果用户提供元数据,元估计器将引发错误。
- str:元数据应使用此别名传递给元估计器,而不是使用原始名称。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求,而不对其他参数进行更改。- 1.3 版本中新增。 - 注意 - 仅当此估计器用作元估计器的子估计器时,此方法才相关,例如,在 - Pipeline中使用。否则,它没有效果。- 参数:
- sample_weightstr、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
- fit中- sample_weight参数的元数据路由。
 
- 返回值:
- self对象
- 更新后的对象。 
 
 
 - set_params(**params)[source]#
- 设置此估计器的参数。 - 此方法适用于简单估计器以及嵌套对象(例如 - Pipeline)。后者具有- <component>__<parameter>形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
- 估计器参数。 
 
- 返回值:
- self估计器实例
- 估计器实例。 
 
 
 - set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') HuberRegressor[source]#
- 请求传递给 - score方法的元数据。- 请注意,只有在 - enable_metadata_routing=True时(参见- sklearn.set_config)此方法才相关。请参见用户指南,了解路由机制的工作原理。- 每个参数的选项为 - True:请求元数据,如果提供则传递给- score。如果未提供元数据,则忽略请求。
- False:不请求元数据,元估计器不会将其传递给- score。
- None:不请求元数据,如果用户提供元数据,元估计器将引发错误。
- str:元数据应使用此别名传递给元估计器,而不是使用原始名称。
 - 默认值( - sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求,而不对其他参数进行更改。- 1.3 版本中新增。 - 注意 - 仅当此估计器用作元估计器的子估计器时,此方法才相关,例如,在 - Pipeline中使用。否则,它没有效果。- 参数:
- sample_weightstr、True、False 或 None,默认值=sklearn.utils.metadata_routing.UNCHANGED
- score中- sample_weight参数的元数据路由。
 
- 返回值:
- self对象
- 更新后的对象。 
 
 
 
 
     
 
