有多种性能指标来描述机器学习模型的质量。但是,问题是,对于哪个问题正确的方法是什么?在这里,我讨论了选择回归模型和分类模型时最重要的性能指标。请注意,此处介绍的性能指标不应用于特征选择,因为它们没有考虑模型的复杂性。
对于基于相同函数集的模型,RMSE和R2 通常用于模型选择。
均方误差由比较预测y ^ y ^与观察到的结果yy所得的残差平方和确定:
由于MSE是基于残差平方的,因此它取决于结果平方 。因此,MSE的根 通常用于报告模型拟合:
均方误差的一个缺点是它不是很容易解释,因为MSE取决于预测任务,因此无法在不同任务之间进行比较。例如,假设一个预测任务与估计卡车的重量有关,而另一项与估计苹果的重量有关。然后,在第一个任务中,好的模型可能具有100 kg的RMSE,而在第二个任务中,好的模型可能具有0.5 kg的RMSE。因此,虽然RMSE可用于模型选择,但很少报告,而使用R2R2。
由于确定系数可以用皮尔逊相关系数来解释,因此我们将首先介绍该数量。令Y ^ Y ^表示模型估计,而YY表示观察到的结果。然后,相关系数定义为
其中Cov(⋅,⋅)∈RCov(⋅,⋅)∈R是协方差,而σσ是标准偏差。协方差定义为
其中,μμ表示平均值。在离散设置中,可以将其计算为
这意味着,如果预测和结果与平均值的偏差相似,则它们的协方差将为正;如果与平均值具有相对的偏差,则它们之间的协方差将为负。
标准偏差定义为
在离散设置下,可以计算为
请注意,R函数 sd
计算总体标准差,该标准差用于获得无偏估计量。如果分布较宽(均值附近的宽分布),则σσ高;如果分布较窄(均值周围的较小分布),则σσ小。
为了更好地理解协方差,我们创建了一个绘制测量值与均值偏差的函数:
plot.mean.deviation <- function(y, y.hat, label) { means <- c(mean(y), mean(y.hat)) df <- data.frame("N" = c(seq_along(y), seq_along(y)), "Deviation" = c(y.deviation, y.hat.deviation), "Variable" = c(rep("Y", length(y)), rep("Y_Hat", length(y.hat)))) ggplot() + geom_segment(size = 2, data = segment.df, aes(x = N, xend = N, y = Y, yend = Yend, color = Contribution)) + geom_point(data = df, alpha = 0.8, size = 2, aes(x = N, y = Deviation, shape = Variable)) + xlab("Measurement i of N") + ylab("Deviation from mean value") }
然后,我们生成代表三种协方差的数据:正协方差,负协方差和无协方差:
# covarianceset.seed(1501)df.low <- data.frame(Y = y, Y_Hat = y.hat)p1 <- plot.mean.deviation(y, y.hat, label = "Positive Covariance")# negative covariance: contrasting spread around meany.hat <- y - 2 * (y - y.mean) + noisep2 <- plot.mean.deviation(y, y.hat, "Negative Covariance")# no covariancey.hat <- runif(N, -0.1, 0.1)grid.arrange(p1, p2, p3, nrow = 3)
注意离群值(与均值的高偏差)对协方差的影响大于与均值接近的值。此外,请注意,协方差接近0表示变量之间在任何方向上似乎都没有关联(即各个贡献项被抵消了)。
由于协方差取决于数据的散布,因此具有高标准偏差的两个变量之间的绝对协方差通常高于具有低方差的变量之间的绝对协方差。让我们可视化此属性:
plot.mean.deviation(y, y.hat, label = "Positive Covariance")
df.high <- data.frame(Y = y, Y_Hat = y.hat)
因此,协方差本身不能得出关于两个变量的相关性的结论。这就是为什么Pearson的相关系数通过两个变量的标准偏差将协方差归一化的原因。由于这将相关性标准化到范围[-1,1] ,因此即使变量具有不同的方差,也可以使相关性具有可比性。值-1表示完全负相关,值1表示完全正相关,而值0表示没有相关。
确定系数R2 定义为
其中 是平方的残差和,是平方 的总和。对于模型选择,R2R2等效于RMSE,因为对于基于相同数据的模型,具有最小MSE的模型也将具有最大值 。
可以根据相关系数或根据解释的方差来解释确定系数。
R平方通常为正,因为具有截距的模型会产生SSres <SStotSSres <SStot的预测Y ^ Y ^,因为模型的预测比平均结果更接近结果。因此,只要存在截距,确定系数就是相关系数的平方:
用解释方差解释
在平方总和分解为残差平方和回归平方和的情况下 ,
然后
这意味着R2 表示模型所解释的方差比。因此,R2 = 0.7R2 = 0.7的模型将解释70% 的方差,而剩下30% 的方差无法解释。
为了获得有关R2 ,我们定义了以下函数,利用它们可以绘制线性模型的拟合。理想模型将位于曲线的对角线上,并且将残差表示为与该对角线的偏差。
rsquared <- function(test.preds, test.labels) { return(round(cor(test.preds, test.labels)^2, 3))}plot.linear.model <- function(model, test.preds = NULL, test.labels = NULL, test.only = FALSE) { # ensure that model is interpreted as a GLM pred <- model$fitted.values obs <- model$model[,1] if (test.only) { } else { plot.df <- data.frame("Prediction" = pred, "Outcome" = obs, "DataSet" = "training") } r.squared <- NULL if (!is.null(test.preds) && !is.null(test.labels)) { # store predicted points: test.df <- data.frame("Prediction" = test.preds, "Outcome" = test.labels, "DataSet" = "test") plot.df <- rbind(plot.df, test.df) } ####### library(ggplot2) p <- ggplot() + # plot training samples geom_point(data = plot.df, aes(x = Outcome, y = Prediction, color = DataSet)) return(p)}
例如,比较以下模型
尽管基于的模型 df.low
具有足够的拟合度(R平方为0.584), df.low
但不能很好地拟合数据(R平方为0.009)。
仅基于R平方盲目选择模型通常是个坏主意。首先,R平方不一定能告诉我们一些关于拟合优度的信息。例如,考虑具有指数分布的数据:
plot(x,y)
让我们为基于这些数据的线性模型计算R 2:
## [1] 0.9
如我们所见,R平方非常高。尽管如此,该模型仍无法很好地拟合,因为它不遵守数据的指数分布。
R2R2的另一个属性是它取决于值范围。R2R2通常在XX的宽值范围内较大,这是因为协方差的增加是由标准偏差调整的,该标准偏差的缩放速度比1N 项引起的协方差的缩放速度慢。
## [1] "R squared: 0.924115453794893, MSE:0.806898017781999"
## [1] "R squared: 0.0657969487417489, MSE:0.776376454723889"
我们可以看到,即使两个模型的残差平方和相似,第一个模型的R2 也更高。
二进制分类的许多性能度量均依赖于混淆矩阵。假设有两个类别,00和11,其中11表示特征的存在(正类),00表示特征的不存在(负类)。相应的混淆矩阵是具有以下结构的2×22×2表:
预测/参考 | 0 | 1个 |
---|---|---|
0 | TN | FN |
1个 | FP | TP |
其中TN表示真实否定的数量(模型正确预测否定类别),FN表示假否定的数量(模型错误地预测否定类别),FP表示错误肯定的数量(模型错误地预测肯定类别),TP表示真实阳性的数量(模型正确预测阳性类别)。
基于混淆矩阵,可以计算准确性,敏感性(真阳性率,TPR)和特异性(1-假阳性率,FPR):
准确性表示正确预测的总体比率。准确性的声誉很差,因为如果类别标签不平衡,它就不合适。例如,假设您要预测稀有肿瘤的存在(1类)与不存在的罕见肿瘤(0类)。让我们假设只有10%的数据点属于肯定类别,而90%的数据属于正面类别。总是预测阴性分类(即未发现肿瘤)的分类器的准确性如何?这将是90%。但是,这可能不是一个非常有用的分类器。因此,灵敏度和特异性通常优于准确性。
敏感性表示正确预测的观察到的阳性结果的比率,而特异性表示与阳性分类相混淆的观察到的阴性结果的比率。这两个数量回答以下问题:
我们始终需要同时考虑敏感性和特异性,因为这些数量本身对模型选择没有用。例如,始终预测阳性类别的模型将使灵敏度最大化,而始终预测阴性类别的模型将使特异性最大化。但是,第一个模型的特异性较低,而第二个模型的灵敏度较低。因此,敏感性和特异性可以解释为跷跷板,因为敏感性的增加通常导致特异性的降低,反之亦然。
通过计算平衡精度,可以将灵敏度和特异性合并为一个数量
平衡精度是更适合于类别不平衡的问题的度量。
评分分类器是为每个预测分配一个数值的分类器,可用作区分这两个类的临界值。例如,二进制支持向量机将为正类分配大于1的值,为负类分配小于-1的值。对于评分分类器,我们通常希望确定的模型性能不是针对单个临界值而是针对多个临界值。
这就是AUC(ROC曲线下方的区域)出现的位置。此数量表示在几个截止点的灵敏度和特异性之间进行权衡。这是因为接收器工作特性(ROC)曲线只是TPR与FPR的关系图,而AUC是由该曲线定义的面积,范围为[0,而AUC是由该曲线定义的面积,其中在[0,1]范围内。
使用R,我们可以使用ROCR
包来计算AUC 。让我们首先创建一个用于绘制分类器及其AUC得分的函数:
plot.scores.AUC <- function(y, y.hat) { par(mfrow=c(1,2)) hist(y.hat[y == 0], col=rgb(1,0,0,0.5), main = "Score Distribution", breaks=seq(min(y.hat),max(y.hat)+1, 1), xlab = "Prediction") hist(y.hat[y == 1], col = rgb(0,0,1,0.5), add=T, breaks=seq(min(y.hat),max(y.hat) + 1, 1)) legend("topleft", legend = c("Class 0", "Class 1"), col=c("red", "blue"), lty=1, cex=1)}
第一个示例显示允许完美分离的分类器的AUC为1。不能完全分离的分类器需要牺牲特异性以提高其灵敏度。因此,它们的AUC将小于1。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。