线性支持向量机回归器 (LinearSVR)#

class sklearn.svm.LinearSVR(*, epsilon=0.0, tol=0.0001, C=1.0, loss='epsilon_insensitive', fit_intercept=True, intercept_scaling=1.0, dual='auto', verbose=0, random_state=None, max_iter=1000)[source]#

线性支持向量回归。

类似于参数kernel='linear'的SVR,但是它是基于liblinear而不是libsvm实现的,因此在惩罚项和损失函数的选择上具有更大的灵活性,并且应该能够更好地扩展到大量样本。

LinearSVRSVR的主要区别在于默认使用的损失函数以及这两个实现之间截距正则化的处理方式。

此类支持密集和稀疏输入。

用户指南中了解更多信息。

版本 0.16 中新增。

参数:
epsilonfloat, default=0.0

epsilon-不敏感损失函数中的epsilon参数。请注意,此参数的值取决于目标变量y的尺度。如果不确定,请设置epsilon=0

tolfloat, default=1e-4

停止准则的容差。

Cfloat, default=1.0

正则化参数。正则化的强度与C成反比。必须严格为正。

loss{‘epsilon_insensitive’, ‘squared_epsilon_insensitive’}, default=’epsilon_insensitive’

指定损失函数。epsilon-不敏感损失(标准SVR)是L1损失,而平方epsilon-不敏感损失('squared_epsilon_insensitive')是L2损失。

fit_interceptbool, default=True

是否拟合截距。如果设置为True,则特征向量将扩展为包含一个截距项:[x_1, ..., x_n, 1],其中1对应于截距。如果设置为False,则计算中不会使用截距(即,预期数据已居中)。

intercept_scalingfloat, default=1.0

fit_intercept为True时,实例向量x变为[x_1, ..., x_n, intercept_scaling],即一个值为intercept_scaling的“合成”特征被添加到实例向量中。截距变为intercept_scaling * 合成特征权重。请注意,liblinear在内部对截距进行惩罚,将其视为特征向量中的任何其他项。为了减少正则化对截距的影响,intercept_scaling参数可以设置为大于1的值;intercept_scaling的值越高,正则化对其的影响越低。然后,权重变为[w_x_1, ..., w_x_n, w_intercept*intercept_scaling],其中w_x_1, ..., w_x_n表示特征权重,截距权重按intercept_scaling缩放。此缩放允许截距项与其他特征相比具有不同的正则化行为。

dual“auto” or bool, default=”auto”

选择算法来求解对偶或原始优化问题。当n_samples > n_features时,首选dual=False。dual="auto"将根据n_samplesn_featuresloss的值自动选择参数的值。如果n_samples < n_features并且优化器支持选择的loss,则dual将设置为True,否则将设置为False。

1.3 版中的更改: 在 1.3 版中添加了"auto"选项,并且将在 1.5 版中成为默认值。

verboseint, default=0

启用详细输出。请注意,此设置利用了liblinear中的每个进程运行时设置,如果启用该设置,则可能无法在多线程环境中正常工作。

random_stateint, RandomState instance or None, default=None

控制用于对数据进行混洗的伪随机数生成。传递一个整数以在多次函数调用中获得可重复的输出。参见词汇表

max_iterint, default=1000

要运行的最大迭代次数。

属性:
coef_ndarray of shape (n_features) if n_classes == 2 else (n_classes, n_features)

分配给特征的权重(原始问题中的系数)。

coef_是从raw_coef_派生的只读属性,它遵循liblinear的内部内存布局。

intercept_ndarray of shape (1) if n_classes == 2 else (n_classes)

决策函数中的常数。

n_features_in_int

拟合期间看到的特征数量。

版本 0.24 中新增。

feature_names_in_ndarray of shape (n_features_in_,)

拟合期间看到的特征名称。仅当X具有全是字符串的特征名称时才定义。

版本 1.0 中新增。

n_iter_int

所有类别中运行的最大迭代次数。

另见

线性支持向量机分类器 (LinearSVC)

使用与本类相同的库 (liblinear) 实现支持向量机分类器。

支持向量机回归器 (SVR)

使用 libsvm 实现支持向量机回归:内核可以是非线性的,但其 SMO 算法不能像LinearSVR那样扩展到大量样本。

sklearn.linear_model.SGDRegressor

通过调整惩罚项和损失参数,SGDRegressor 可以优化与 LinearSVR 相同的代价函数。此外,它需要的内存更少,允许增量(在线)学习,并实现了各种损失函数和正则化方案。

示例

>>> from sklearn.svm import LinearSVR
>>> from sklearn.pipeline import make_pipeline
>>> from sklearn.preprocessing import StandardScaler
>>> from sklearn.datasets import make_regression
>>> X, y = make_regression(n_features=4, random_state=0)
>>> regr = make_pipeline(StandardScaler(),
...                      LinearSVR(random_state=0, tol=1e-5))
>>> regr.fit(X, y)
Pipeline(steps=[('standardscaler', StandardScaler()),
                ('linearsvr', LinearSVR(random_state=0, tol=1e-05))])
>>> print(regr.named_steps['linearsvr'].coef_)
[18.582... 27.023... 44.357... 64.522...]
>>> print(regr.named_steps['linearsvr'].intercept_)
[-4...]
>>> print(regr.predict([[0, 0, 0, 0]]))
[-2.384...]
fit(X, y, sample_weight=None)[source]#

根据给定的训练数据拟合模型。

参数:
X形状为 (n_samples, n_features) 的 {array-like, sparse matrix}

训练向量,其中 n_samples 是样本数,n_features 是特征数。

y形状为 (n_samples,) 的 array-like

相对于 X 的目标向量。

sample_weight形状为 (n_samples,) 的 array-like,默认值为 None

分配给各个样本的权重数组。如果未提供,则每个样本都赋予单位权重。

在 0.18 版本中添加。

返回:
self对象

估计器的实例。

get_metadata_routing()[source]#

获取此对象的元数据路由。

请查看用户指南,了解路由机制的工作原理。

返回:
routingMetadataRequest

一个MetadataRequest,封装了路由信息。

get_params(deep=True)[source]#

获取此估计器的参数。

参数:
deep布尔值,默认为 True

如果为 True,则将返回此估计器和作为估计器的包含子对象的参数。

返回:
params字典

参数名称与其值的映射。

predict(X)[source]#

使用线性模型进行预测。

参数:
Xarray-like 或稀疏矩阵,形状为 (n_samples, n_features)

样本。

返回:
C数组,形状为 (n_samples,)

返回预测值。

score(X, y, sample_weight=None)[source]#

返回预测的决定系数。

决定系数 \(R^2\) 定义为 \((1 - \frac{u}{v})\),其中 \(u\) 是残差平方和 ((y_true - y_pred)** 2).sum(),而 \(v\) 是总平方和 ((y_true - y_true.mean()) ** 2).sum()。最佳分数为 1.0,它可以为负数(因为模型可以任意地更差)。一个始终预测 y 的期望值的常数模型,忽略输入特征,其 \(R^2\) 分数为 0.0。

参数:
X形状为 (n_samples, n_features) 的 array-like

测试样本。对于某些估计器,这可能是一个预计算的内核矩阵,或者形状为 (n_samples, n_samples_fitted) 的泛型对象列表,其中 n_samples_fitted 是估计器拟合中使用的样本数。

y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like

X 的真实值。

sample_weight形状为 (n_samples,) 的 array-like,默认值为 None

样本权重。

返回:
score浮点数

self.predict(X) 关于 y\(R^2\)

备注

从 0.23 版本开始,在回归器上调用 score 时使用的 \(R^2\) 分数使用 multioutput='uniform_average',以保持与 r2_score 的默认值一致。这会影响所有多输出回归器的 score 方法(MultiOutputRegressor 除外)。

set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') LinearSVR[source]#

请求传递给fit方法的元数据。

请注意,只有当enable_metadata_routing=True时(参见sklearn.set_config),此方法才相关。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项如下:

  • True:请求元数据,如果提供则传递给fit。如果未提供元数据,则忽略请求。

  • False:不请求元数据,元估计器不会将其传递给fit

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应使用此给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求,而无需更改其他参数。

版本1.3中新增。

注意

只有在将此估计器用作元估计器的子估计器时(例如,在Pipeline中使用)此方法才相关。否则,它无效。

参数:
sample_weightstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED

fit方法中sample_weight参数的元数据路由。

返回:
self对象

更新后的对象。

set_params(**params)[source]#

设置此估计器的参数。

此方法适用于简单的估计器以及嵌套对象(例如Pipeline)。后者具有<component>__<parameter>形式的参数,因此可以更新嵌套对象的每个组件。

参数:
**paramsdict

估计器参数。

返回:
self估计器实例

估计器实例。

set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') LinearSVR[source]#

请求传递给score方法的元数据。

请注意,只有当enable_metadata_routing=True时(参见sklearn.set_config),此方法才相关。请参阅用户指南,了解路由机制的工作原理。

每个参数的选项如下:

  • True:请求元数据,如果提供则传递给score。如果未提供元数据,则忽略请求。

  • False:不请求元数据,元估计器不会将其传递给score

  • None:不请求元数据,如果用户提供元数据,元估计器将引发错误。

  • str:元数据应使用此给定的别名而不是原始名称传递给元估计器。

默认值(sklearn.utils.metadata_routing.UNCHANGED)保留现有的请求。这允许您更改某些参数的请求,而无需更改其他参数。

版本1.3中新增。

注意

只有在将此估计器用作元估计器的子估计器时(例如,在Pipeline中使用)此方法才相关。否则,它无效。

参数:
sample_weightstr, True, False 或 None,默认为sklearn.utils.metadata_routing.UNCHANGED

score方法中sample_weight参数的元数据路由。

返回:
self对象

更新后的对象。