D^2 Tweedie 得分#
- sklearn.metrics.d2_tweedie_score(y_true, y_pred, *, sample_weight=None, power=0)[source]#
D²回归得分函数,解释的Tweedie偏差分数。
最佳得分为1.0,也可能为负值(因为模型可能任意差)。一个始终使用`y_true`经验均值作为常数预测的模型,忽略输入特征,其D²得分为0.0。
更多详情请阅读用户指南。
版本1.0中添加。
- 参数:
- y_truearray-like of shape (n_samples,)
真实目标值。
- y_predarray-like of shape (n_samples,)
预测目标值。
- sample_weightarray-like of shape (n_samples,), default=None
样本权重。
- powerfloat, default=0
Tweedie 幂参数。power ≤ 0 或 power ≥ 1。
较高的`p`值意味着真实目标值和预测目标值之间极端偏差的权重较低。
power < 0:极稳定分布。要求:y_pred > 0。
power = 0:正态分布,输出对应于r2_score。y_true 和 y_pred 可以是任何实数。
power = 1:泊松分布。要求:y_true ≥ 0 且 y_pred > 0。
1 < p < 2:复合泊松分布。要求:y_true ≥ 0 且 y_pred > 0。
power = 2:伽马分布。要求:y_true > 0 且 y_pred > 0。
power = 3:逆高斯分布。要求:y_true > 0 且 y_pred > 0。
其他:正稳定分布。要求:y_true > 0 且 y_pred > 0。
- 返回:
- zfloat or ndarray of floats
D²得分。
注释
这不是一个对称函数。
与R^2类似,D^2分数可能为负值(它实际上不必是量D的平方)。
对于单个样本,此度量未很好地定义,如果n_samples小于二,则将返回NaN值。
参考文献
[1]Hastie, Trevor J., Robert Tibshirani 和 Martin J. Wainwright. “Statistical Learning with Sparsity: The Lasso and Generalizations.” (2015) 的公式 (3.11)。 https://hastie.su.domains/StatLearnSparsity/
示例
>>> from sklearn.metrics import d2_tweedie_score >>> y_true = [0.5, 1, 2.5, 7] >>> y_pred = [1, 1, 5, 3.5] >>> d2_tweedie_score(y_true, y_pred) 0.285... >>> d2_tweedie_score(y_true, y_pred, power=1) 0.487... >>> d2_tweedie_score(y_true, y_pred, power=2) 0.630... >>> d2_tweedie_score(y_true, y_true, power=2) 1.0