注意
点击此处下载完整的示例代码,或通过JupyterLite或Binder在浏览器中运行此示例。
SVM:不平衡类别的分离超平面#
使用 SVC 查找针对类别不平衡数据的最佳分离超平面。
我们首先使用普通的 SVC 查找分离平面,然后绘制(虚线)自动校正类别不平衡的分离超平面。
注意
此示例也可以通过将 SVC(kernel="linear")
替换为 SGDClassifier(loss="hinge")
来实现。将SGDClassifier
的 loss
参数设置为 hinge
将产生类似于具有线性核的 SVC 的行为。
例如,尝试替换 SVC
clf = SGDClassifier(n_iter=100, alpha=0.01)
# Authors: The scikit-learn developers
# SPDX-License-Identifier: BSD-3-Clause
import matplotlib.lines as mlines
import matplotlib.pyplot as plt
from sklearn import svm
from sklearn.datasets import make_blobs
from sklearn.inspection import DecisionBoundaryDisplay
# we create two clusters of random points
n_samples_1 = 1000
n_samples_2 = 100
centers = [[0.0, 0.0], [2.0, 2.0]]
clusters_std = [1.5, 0.5]
X, y = make_blobs(
n_samples=[n_samples_1, n_samples_2],
centers=centers,
cluster_std=clusters_std,
random_state=0,
shuffle=False,
)
# fit the model and get the separating hyperplane
clf = svm.SVC(kernel="linear", C=1.0)
clf.fit(X, y)
# fit the model and get the separating hyperplane using weighted classes
wclf = svm.SVC(kernel="linear", class_weight={1: 10})
wclf.fit(X, y)
# plot the samples
plt.scatter(X[:, 0], X[:, 1], c=y, cmap=plt.cm.Paired, edgecolors="k")
# plot the decision functions for both classifiers
ax = plt.gca()
disp = DecisionBoundaryDisplay.from_estimator(
clf,
X,
plot_method="contour",
colors="k",
levels=[0],
alpha=0.5,
linestyles=["-"],
ax=ax,
)
# plot decision boundary and margins for weighted classes
wdisp = DecisionBoundaryDisplay.from_estimator(
wclf,
X,
plot_method="contour",
colors="r",
levels=[0],
alpha=0.5,
linestyles=["-"],
ax=ax,
)
plt.legend(
[
mlines.Line2D([], [], color="k", label="non weighted"),
mlines.Line2D([], [], color="r", label="weighted"),
],
["non weighted", "weighted"],
loc="upper right",
)
plt.show()
脚本总运行时间:(0 分钟 0.167 秒)
相关示例
SVM:最大间隔分离超平面
SGD:最大间隔分离超平面
在iris数据集上绘制不同的SVM分类器
绘制LinearSVC中的支持向量