线性支持向量机回归器 (LinearSVR)#
- class sklearn.svm.LinearSVR(*, epsilon=0.0, tol=0.0001, C=1.0, loss='epsilon_insensitive', fit_intercept=True, intercept_scaling=1.0, dual='auto', verbose=0, random_state=None, max_iter=1000)[source]#
线性支持向量回归。
类似于参数kernel='linear'的SVR,但是它是基于liblinear而不是libsvm实现的,因此在惩罚项和损失函数的选择上具有更大的灵活性,并且应该能够更好地扩展到大量样本。
LinearSVR
和SVR
的主要区别在于默认使用的损失函数以及这两个实现之间截距正则化的处理方式。此类支持密集和稀疏输入。
在用户指南中了解更多信息。
版本 0.16 中新增。
- 参数:
- epsilonfloat, default=0.0
epsilon-不敏感损失函数中的epsilon参数。请注意,此参数的值取决于目标变量y的尺度。如果不确定,请设置
epsilon=0
。- tolfloat, default=1e-4
停止准则的容差。
- Cfloat, default=1.0
正则化参数。正则化的强度与C成反比。必须严格为正。
- loss{‘epsilon_insensitive’, ‘squared_epsilon_insensitive’}, default=’epsilon_insensitive’
指定损失函数。epsilon-不敏感损失(标准SVR)是L1损失,而平方epsilon-不敏感损失('squared_epsilon_insensitive')是L2损失。
- fit_interceptbool, default=True
是否拟合截距。如果设置为True,则特征向量将扩展为包含一个截距项:
[x_1, ..., x_n, 1]
,其中1对应于截距。如果设置为False,则计算中不会使用截距(即,预期数据已居中)。- intercept_scalingfloat, default=1.0
当
fit_intercept
为True时,实例向量x变为[x_1, ..., x_n, intercept_scaling]
,即一个值为intercept_scaling
的“合成”特征被添加到实例向量中。截距变为intercept_scaling * 合成特征权重。请注意,liblinear在内部对截距进行惩罚,将其视为特征向量中的任何其他项。为了减少正则化对截距的影响,intercept_scaling
参数可以设置为大于1的值;intercept_scaling
的值越高,正则化对其的影响越低。然后,权重变为[w_x_1, ..., w_x_n, w_intercept*intercept_scaling]
,其中w_x_1, ..., w_x_n
表示特征权重,截距权重按intercept_scaling
缩放。此缩放允许截距项与其他特征相比具有不同的正则化行为。- dual“auto” or bool, default=”auto”
选择算法来求解对偶或原始优化问题。当n_samples > n_features时,首选dual=False。
dual="auto"
将根据n_samples
、n_features
和loss
的值自动选择参数的值。如果n_samples
<n_features
并且优化器支持选择的loss
,则dual将设置为True,否则将设置为False。1.3 版中的更改: 在 1.3 版中添加了
"auto"
选项,并且将在 1.5 版中成为默认值。- verboseint, default=0
启用详细输出。请注意,此设置利用了liblinear中的每个进程运行时设置,如果启用该设置,则可能无法在多线程环境中正常工作。
- random_stateint, RandomState instance or None, default=None
控制用于对数据进行混洗的伪随机数生成。传递一个整数以在多次函数调用中获得可重复的输出。参见词汇表。
- max_iterint, default=1000
要运行的最大迭代次数。
- 属性:
- coef_ndarray of shape (n_features) if n_classes == 2 else (n_classes, n_features)
分配给特征的权重(原始问题中的系数)。
coef_
是从raw_coef_
派生的只读属性,它遵循liblinear的内部内存布局。- intercept_ndarray of shape (1) if n_classes == 2 else (n_classes)
决策函数中的常数。
- n_features_in_int
在拟合期间看到的特征数量。
版本 0.24 中新增。
- feature_names_in_ndarray of shape (
n_features_in_
,) 在拟合期间看到的特征名称。仅当
X
具有全是字符串的特征名称时才定义。版本 1.0 中新增。
- n_iter_int
所有类别中运行的最大迭代次数。
另见
线性支持向量机分类器 (LinearSVC)
使用与本类相同的库 (liblinear) 实现支持向量机分类器。
支持向量机回归器 (SVR)
使用 libsvm 实现支持向量机回归:内核可以是非线性的,但其 SMO 算法不能像
LinearSVR
那样扩展到大量样本。sklearn.linear_model.SGDRegressor
通过调整惩罚项和损失参数,SGDRegressor 可以优化与 LinearSVR 相同的代价函数。此外,它需要的内存更少,允许增量(在线)学习,并实现了各种损失函数和正则化方案。
示例
>>> from sklearn.svm import LinearSVR >>> from sklearn.pipeline import make_pipeline >>> from sklearn.preprocessing import StandardScaler >>> from sklearn.datasets import make_regression >>> X, y = make_regression(n_features=4, random_state=0) >>> regr = make_pipeline(StandardScaler(), ... LinearSVR(random_state=0, tol=1e-5)) >>> regr.fit(X, y) Pipeline(steps=[('standardscaler', StandardScaler()), ('linearsvr', LinearSVR(random_state=0, tol=1e-05))])
>>> print(regr.named_steps['linearsvr'].coef_) [18.582... 27.023... 44.357... 64.522...] >>> print(regr.named_steps['linearsvr'].intercept_) [-4...] >>> print(regr.predict([[0, 0, 0, 0]])) [-2.384...]
- fit(X, y, sample_weight=None)[source]#
根据给定的训练数据拟合模型。
- 参数:
- X形状为 (n_samples, n_features) 的 {array-like, sparse matrix}
训练向量,其中
n_samples
是样本数,n_features
是特征数。- y形状为 (n_samples,) 的 array-like
相对于 X 的目标向量。
- sample_weight形状为 (n_samples,) 的 array-like,默认值为 None
分配给各个样本的权重数组。如果未提供,则每个样本都赋予单位权重。
在 0.18 版本中添加。
- 返回:
- self对象
估计器的实例。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查看用户指南,了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个
MetadataRequest
,封装了路由信息。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值,默认为 True
如果为 True,则将返回此估计器和作为估计器的包含子对象的参数。
- 返回:
- params字典
参数名称与其值的映射。
- predict(X)[source]#
使用线性模型进行预测。
- 参数:
- Xarray-like 或稀疏矩阵,形状为 (n_samples, n_features)
样本。
- 返回:
- C数组,形状为 (n_samples,)
返回预测值。
- score(X, y, sample_weight=None)[source]#
返回预测的决定系数。
决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和
((y_true - y_pred)** 2).sum()
,而 \(v\) 是总平方和((y_true - y_true.mean()) ** 2).sum()
。最佳分数为 1.0,它可以为负数(因为模型可以任意地更差)。一个始终预测y
的期望值的常数模型,忽略输入特征,其 \(R^2\) 分数为 0.0。- 参数:
- X形状为 (n_samples, n_features) 的 array-like
测试样本。对于某些估计器,这可能是一个预计算的内核矩阵,或者形状为
(n_samples, n_samples_fitted)
的泛型对象列表,其中n_samples_fitted
是估计器拟合中使用的样本数。- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like
X
的真实值。- sample_weight形状为 (n_samples,) 的 array-like,默认值为 None
样本权重。
- 返回:
- score浮点数
self.predict(X)
关于y
的 \(R^2\)。
备注
从 0.23 版本开始,在回归器上调用
score
时使用的 \(R^2\) 分数使用multioutput='uniform_average'
,以保持与r2_score
的默认值一致。这会影响所有多输出回归器的score
方法(MultiOutputRegressor
除外)。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') LinearSVR [source]#
请求传递给
fit
方法的元数据。请注意,只有当
enable_metadata_routing=True
时(参见sklearn.set_config
),此方法才相关。请参阅用户指南,了解路由机制的工作原理。每个参数的选项如下:
True
:请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给fit
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有的请求。这允许您更改某些参数的请求,而无需更改其他参数。版本1.3中新增。
注意
只有在将此估计器用作元估计器的子估计器时(例如,在
Pipeline
中使用)此方法才相关。否则,它无效。- 参数:
- sample_weightstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED
fit
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单的估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,因此可以更新嵌套对象的每个组件。- 参数:
- **paramsdict
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') LinearSVR [source]#
请求传递给
score
方法的元数据。请注意,只有当
enable_metadata_routing=True
时(参见sklearn.set_config
),此方法才相关。请参阅用户指南,了解路由机制的工作原理。每个参数的选项如下:
True
:请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略请求。False
:不请求元数据,元估计器不会将其传递给score
。None
:不请求元数据,如果用户提供元数据,元估计器将引发错误。str
:元数据应使用此给定的别名而不是原始名称传递给元估计器。
默认值(
sklearn.utils.metadata_routing.UNCHANGED
)保留现有的请求。这允许您更改某些参数的请求,而无需更改其他参数。版本1.3中新增。
注意
只有在将此估计器用作元估计器的子估计器时(例如,在
Pipeline
中使用)此方法才相关。否则,它无效。- 参数:
- sample_weightstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。