LinearSVC#
- class sklearn.svm.LinearSVC(penalty='l2', loss='squared_hinge', *, dual='auto', tol=0.0001, C=1.0, multi_class='ovr', fit_intercept=True, intercept_scaling=1, class_weight=None, verbose=0, random_state=None, max_iter=1000)[source]#
线性支持向量分类。
与参数 kernel=’linear’ 的 SVC 类似,但其实现基于 liblinear 而非 libsvm,因此在惩罚和损失函数的选择上更具灵活性,并且应能更好地扩展到大量样本。
LinearSVC
和SVC
之间的主要区别在于默认使用的损失函数,以及这两种实现中截距正则化的处理方式。该类支持密集和稀疏输入,多类别支持通过一对多方案处理。
在用户指南中阅读更多信息。
- 参数:
- penalty{‘l1’, ‘l2’}, 默认=’l2’
指定惩罚中使用的范数。’l2’ 惩罚是 SVC 中使用的标准惩罚。’l1’ 导致
coef_
向量是稀疏的。- loss{‘hinge’, ‘squared_hinge’}, 默认=’squared_hinge’
指定损失函数。’hinge’ 是标准 SVM 损失(例如 SVC 类使用),而 ‘squared_hinge’ 是 hinge 损失的平方。不支持
penalty='l1'
和loss='hinge'
的组合。- dual“auto” 或 bool, 默认=”auto”
选择解决对偶或原始优化问题的算法。当 n_samples > n_features 时,推荐 dual=False。
dual="auto"
将根据n_samples
、n_features
、loss
、multi_class
和penalty
的值自动选择参数值。如果n_samples
<n_features
且优化器支持所选的loss
、multi_class
和penalty
,则 dual 将设置为 True,否则将设置为 False。1.3 版本新增:
"auto"
选项在 1.3 版本中添加,并将在 1.5 版本中成为默认值。- tol浮点数, 默认=1e-4
停止准则的容差。
- C浮点数, 默认=1.0
正则化参数。正则化强度与 C 成反比。必须严格为正。有关缩放正则化参数 C 的直观效果,请参阅 SVC 正则化参数 C 的缩放。
- multi_class{‘ovr’, ‘crammer_singer’}, 默认=’ovr’
如果
y
包含两个以上的类别,则确定多类别策略。"ovr"
训练 n_classes 个一对多分类器,而"crammer_singer"
优化所有类别的联合目标。虽然crammer_singer
从理论角度来看很有趣,因为它是一致的,但在实践中很少使用,因为它很少能带来更好的准确性,而且计算成本更高。如果选择"crammer_singer"
,则 loss、penalty 和 dual 选项将被忽略。- fit_intercept布尔值, 默认=True
是否拟合截距。如果设置为 True,特征向量将扩展为包含一个截距项:
[x_1, ..., x_n, 1]
,其中 1 对应于截距。如果设置为 False,计算中将不使用截距(即数据预期已居中)。- intercept_scaling浮点数, 默认=1.0
当
fit_intercept
为 True 时,实例向量 x 变为[x_1, ..., x_n, intercept_scaling]
,即一个常量值等于intercept_scaling
的“合成”特征被附加到实例向量中。截距变为 intercept_scaling * 合成特征权重。请注意,liblinear 在内部会对截距进行惩罚,将其视为特征向量中的任何其他项。为了减少正则化对截距的影响,intercept_scaling
参数可以设置为大于 1 的值;intercept_scaling
的值越高,正则化对其的影响越小。然后,权重变为[w_x_1, ..., w_x_n, w_intercept*intercept_scaling]
,其中w_x_1, ..., w_x_n
代表特征权重,截距权重按intercept_scaling
进行缩放。这种缩放允许截距项与其它特征相比具有不同的正则化行为。- class_weight字典 或 ‘balanced’, 默认=None
将类别 i 的参数 C 设置为
class_weight[i]*C
用于 SVC。如果未给定,所有类别都被假定权重为 1。“balanced”模式使用 y 的值自动调整权重,使其与输入数据中类别频率成反比,即n_samples / (n_classes * np.bincount(y))
。- verbose整型, 默认=0
启用详细输出。请注意,此设置利用了 liblinear 中每个进程的运行时设置,如果启用,在多线程环境中可能无法正常工作。
- random_state整型, RandomState 实例 或 None, 默认=None
控制数据洗牌的伪随机数生成(如果
dual=True
时)。当dual=False
时,LinearSVC
的底层实现不是随机的,random_state
对结果没有影响。传递一个整型以在多次函数调用中获得可重现的输出。请参阅词汇表。- max_iter整型, 默认=1000
要运行的最大迭代次数。
- 属性:
- coef_形状为 (1, n_features) 的 ndarray(如果 n_classes == 2),否则为 (n_classes, n_features)
分配给特征的权重(原始问题中的系数)。
coef_
是一个只读属性,派生自raw_coef_
,遵循 liblinear 的内部内存布局。- intercept_形状为 (1,) 的 ndarray(如果 n_classes == 2),否则为 (n_classes,)
决策函数中的常数。
- classes_形状为 (n_classes,) 的 ndarray
唯一的类别标签。
- n_features_in_整型
拟合期间看到的特征数量。
0.24 版本新增。
- feature_names_in_形状为 (
n_features_in_
,) 的 ndarray 拟合期间看到的特征名称。仅当
X
的所有特征名称均为字符串时才定义。1.0 版本新增。
- n_iter_整型
所有类别中运行的最大迭代次数。
另请参阅
SVC
使用libsvm实现的Support Vector Machine分类器:核可以是线性的,但其SMO算法不能像LinearSVC那样扩展到大量样本。此外,SVC多类模式采用一对一方案实现,而LinearSVC采用一对多方案。使用
OneVsRestClassifier
包装器可以实现SVC的一对多。最后,如果输入是C-contiguous的,SVC可以拟合密集数据而无需内存复制。稀疏数据仍会产生内存复制。sklearn.linear_model.SGDClassifier
SGDClassifier可以通过调整penalty和loss参数来优化与LinearSVC相同的成本函数。此外,它需要更少的内存,支持增量(在线)学习,并实现各种损失函数和正则化方案。
注意事项
底层 C 实现使用随机数生成器在拟合模型时选择特征。因此,对于相同的输入数据,结果略有不同并非罕见。如果发生这种情况,请尝试使用较小的
tol
参数。底层实现liblinear对数据使用稀疏内部表示,这将产生内存复制。
在某些情况下,预测输出可能与独立liblinear的输出不匹配。请参阅叙述性文档中的与liblinear的差异。
参考文献
示例
>>> from sklearn.svm import LinearSVC >>> from sklearn.pipeline import make_pipeline >>> from sklearn.preprocessing import StandardScaler >>> from sklearn.datasets import make_classification >>> X, y = make_classification(n_features=4, random_state=0) >>> clf = make_pipeline(StandardScaler(), ... LinearSVC(random_state=0, tol=1e-5)) >>> clf.fit(X, y) Pipeline(steps=[('standardscaler', StandardScaler()), ('linearsvc', LinearSVC(random_state=0, tol=1e-05))])
>>> print(clf.named_steps['linearsvc'].coef_) [[0.141 0.526 0.679 0.493]]
>>> print(clf.named_steps['linearsvc'].intercept_) [0.1693] >>> print(clf.predict([[0, 0, 0, 0]])) [1]
- decision_function(X)[source]#
预测样本的置信度分数。
样本的置信度分数与该样本到超平面的有符号距离成比例。
- 参数:
- X形状为 (n_samples, n_features) 的 {array-like, sparse matrix}
我们希望获得置信度分数的数据矩阵。
- 返回:
- scores形状为 (n_samples,) 或 (n_samples, n_classes) 的 ndarray
每个
(n_samples, n_classes)
组合的置信度分数。在二分类情况下,self.classes_[1]
的置信度分数,其中 >0 表示将预测为该类别。
- densify()[source]#
将系数矩阵转换为密集数组格式。
将
coef_
成员(回)转换为 numpy.ndarray。这是coef_
的默认格式,并且是拟合所必需的,因此只有在先前被稀疏化的模型上才需要调用此方法;否则,它是一个无操作。- 返回:
- self
已拟合的估计器。
- fit(X, y, sample_weight=None)[source]#
根据给定的训练数据拟合模型。
- 参数:
- X形状为 (n_samples, n_features) 的 {array-like, sparse matrix}
训练向量,其中
n_samples
是样本数量,n_features
是特征数量。- y形状为 (n_samples,) 的 array-like
与 X 相关的目标向量。
- sample_weight形状为 (n_samples,) 的 array-like, 默认=None
分配给单个样本的权重数组。如果未提供,则每个样本的权重为单位一。
0.18 版本新增。
- 返回:
- self对象
估计器的一个实例。
- get_metadata_routing()[source]#
获取此对象的元数据路由。
请查阅 用户指南,了解路由机制的工作原理。
- 返回:
- routingMetadataRequest
一个封装路由信息的
MetadataRequest
。
- get_params(deep=True)[source]#
获取此估计器的参数。
- 参数:
- deep布尔值, 默认=True
如果为 True,将返回此估计器及其包含的作为估计器的子对象的参数。
- 返回:
- params字典
参数名称与其值的映射。
- predict(X)[source]#
预测 X 中样本的类别标签。
- 参数:
- X形状为 (n_samples, n_features) 的 {array-like, sparse matrix}
我们希望获得预测的数据矩阵。
- 返回:
- y_pred形状为 (n_samples,) 的 ndarray
包含每个样本的类别标签的向量。
- score(X, y, sample_weight=None)[source]#
返回提供的数据和标签上的准确率。
在多标签分类中,这是子集准确率,这是一个严格的度量,因为它要求每个样本的每个标签集都被正确预测。
- 参数:
- X形状为 (n_samples, n_features) 的 array-like
测试样本。
- y形状为 (n_samples,) 或 (n_samples, n_outputs) 的 array-like
X
的真实标签。- sample_weight形状为 (n_samples,) 的 array-like, 默认=None
样本权重。
- 返回:
- score浮点数
self.predict(X)
相对于y
的平均准确率。
- set_fit_request(*, sample_weight: bool | None | str = '$UNCHANGED$') LinearSVC [source]#
请求传递给
fit
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时才相关(参见sklearn.set_config
)。请参阅 用户指南,了解路由机制的工作原理。每个参数的选项有:
True
: 请求元数据,如果提供则传递给fit
。如果未提供元数据,则忽略请求。False
: 不请求元数据,并且元估计器不会将其传递给fit
。None
: 不请求元数据,如果用户提供,元估计器将引发错误。str
: 元数据应以给定的别名而不是原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED
) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。1.3 版本新增。
注意
此方法仅当此估计器用作元估计器(例如,在
Pipeline
内部使用)的子估计器时才相关。否则它没有效果。- 参数:
- sample_weightstr, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED
fit
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- set_params(**params)[source]#
设置此估计器的参数。
此方法适用于简单估计器以及嵌套对象(例如
Pipeline
)。后者具有<component>__<parameter>
形式的参数,以便可以更新嵌套对象的每个组件。- 参数:
- **params字典
估计器参数。
- 返回:
- self估计器实例
估计器实例。
- set_score_request(*, sample_weight: bool | None | str = '$UNCHANGED$') LinearSVC [source]#
请求传递给
score
方法的元数据。请注意,此方法仅在
enable_metadata_routing=True
时才相关(参见sklearn.set_config
)。请参阅 用户指南,了解路由机制的工作原理。每个参数的选项有:
True
: 请求元数据,如果提供则传递给score
。如果未提供元数据,则忽略请求。False
: 不请求元数据,并且元估计器不会将其传递给score
。None
: 不请求元数据,如果用户提供,元估计器将引发错误。str
: 元数据应以给定的别名而不是原始名称传递给元估计器。
默认值 (
sklearn.utils.metadata_routing.UNCHANGED
) 保留现有请求。这允许您更改某些参数的请求而不更改其他参数。1.3 版本新增。
注意
此方法仅当此估计器用作元估计器(例如,在
Pipeline
内部使用)的子估计器时才相关。否则它没有效果。- 参数:
- sample_weightstr, True, False, 或 None, 默认=sklearn.utils.metadata_routing.UNCHANGED
score
方法中sample_weight
参数的元数据路由。
- 返回:
- self对象
更新后的对象。
- sparsify()[source]#
将系数矩阵转换为稀疏格式。
将
coef_
成员转换为 scipy.sparse 矩阵,对于 L1 正则化模型,这比通常的 numpy.ndarray 表示法在内存和存储方面效率更高。intercept_
成员不进行转换。- 返回:
- self
已拟合的估计器。
注意事项
对于非稀疏模型,即当
coef_
中零的数量不多时,这实际上可能会增加内存使用,因此请谨慎使用此方法。经验法则是,零元素的数量(可以使用(coef_ == 0).sum()
计算)必须超过 50% 才能提供显著优势。调用此方法后,除非您调用 densify,否则使用 partial_fit 方法(如果有)进一步拟合将不起作用。