绘制交叉验证预测#
此示例展示了如何使用 cross_val_predict
与 PredictionErrorDisplay
来可视化预测误差。
我们将加载糖尿病数据集并创建一个线性回归模型实例。
from sklearn.datasets import load_diabetes
from sklearn.linear_model import LinearRegression
X, y = load_diabetes(return_X_y=True)
lr = LinearRegression()
cross_val_predict
返回一个与 y
大小相同的数组,其中每个条目都是通过交叉验证获得的预测。
from sklearn.model_selection import cross_val_predict
y_pred = cross_val_predict(lr, X, y, cv=10)
由于 cv=10
,这意味着我们训练了 10 个模型,每个模型用于预测 10 个折叠中的一个。现在我们可以使用 PredictionErrorDisplay
来可视化预测误差。
在左侧轴上,我们绘制了观察值 \(y\) 与模型给出的预测值 \(\hat{y}\)。在右侧轴上,我们绘制了残差(即观察值与预测值之间的差)与预测值。
import matplotlib.pyplot as plt
from sklearn.metrics import PredictionErrorDisplay
fig, axs = plt.subplots(ncols=2, figsize=(8, 4))
PredictionErrorDisplay.from_predictions(
y,
y_pred=y_pred,
kind="actual_vs_predicted",
subsample=100,
ax=axs[0],
random_state=0,
)
axs[0].set_title("Actual vs. Predicted values")
PredictionErrorDisplay.from_predictions(
y,
y_pred=y_pred,
kind="residual_vs_predicted",
subsample=100,
ax=axs[1],
random_state=0,
)
axs[1].set_title("Residuals vs. Predicted Values")
fig.suptitle("Plotting cross-validated predictions")
plt.tight_layout()
plt.show()
需要注意的是,在本例中,我们仅出于可视化目的使用了cross_val_predict
。
当不同的交叉验证折叠的大小和分布不同时,通过计算cross_val_predict
返回的连接预测结果的单个性能指标来定量评估模型性能将是有问题的。
建议使用以下方法计算每个折叠的性能指标:cross_val_score
或 cross_validate
。
脚本总运行时间:(0 分钟 0.194 秒)
相关示例
K-means 假设的演示
回归模型中目标变换的影响
二分 K-Means 和常规 K-Means 性能比较
分位数回归