前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >机器学习算法常用指标总结

机器学习算法常用指标总结

作者头像
zhangjiqun
发布于 2024-12-14 01:38:31
发布于 2024-12-14 01:38:31
2820
举报
文章被收录于专栏:计算机工具计算机工具

机器学习算法常用指标总结

1. 准确度 (Accuracy)

准确度是衡量模型性能的最基本指标。它的定义非常简单,就是模型预测正确的次数占总预测次数的比例。准确度的计算公式是:

准确度 = (正确预测的正例数 + 正确预测的负例数) / 总预测数

然而,准确度可能会对不平衡数据集产生误导。在大多数负例和少数正例的情况下,一个简单的模型可能会将所有实例预测为负例,从而获得看似很高的准确度,但实际上对正例的预测能力非常差。

2. 混淆矩阵 (Confusion Matrix)

混淆矩阵是一种特殊的二维表,用于评估分类模型的性能。混淆矩阵的四个部分分别是真正例(TP)、假正例(FP)、真负例(TN)和假负例(FN)。

下面是一个混淆矩阵的示例:

-

预测为正例

预测为负例

实际为正例

TP

FN

实际为负例

FP

TN

这些数据可以用于计算许多其他评价指标,例如精度、召回率和F1分数。

3. Sensitivity (敏感性)

敏感性,也称为真正例率(True Positive Rate,TPR),是一种用于衡量二元分类模型性能的指标。敏感性的定义是真正例占所有实际为正例的比例,其计算公式为:

Sensitivity = TP / (TP + FN)

其中,TP是真正例数量,FN是假反例数量。在医学检测中,敏感性是一个重要的指标,因为一个高敏感性的测试能够准确找出所有的阳性结果。

4. Specificity (特异性)

特异性,也称为真反例率(True Negative Rate,TNR),是一种用于衡量二元分类模型性能的指标。特异性的定义是真反例占所有实际为反例的比例,其计算公式为:

Specificity = TN / (TN + FP)

其中,TN是真反例数量,FP是假正例数量。在医学检测中,特异性是一个重要的指标,因为一个高特异性的测试能够准确排除所有的阴性结果。

5. Positive Predictive Value (PPV,阳性预测值)

阳性预测值是预测为阳性的样本中真阳性的比例。它体现了一个测试结果为阳性的样本真实是阳性的概率,其计算公式为:

PPV = TP / (TP + FP)

其中,TP是真正例数量,FP是假正例数量。

6. Negative Predictive Value (NPV,阴性预测值)

阴性预测值是预测为阴性的样本中真阴性的比例。它体现了一个测试结果为阴性的样本真实是阴性的概率,其计算公式为:

NPV = TN / (TN + FN)

其中,TN是真反例数量,FN是假反例数量。

7. 精度 (Precision)

精度(也被称为查准率或PPV)是正确预测的正例占所有预测为正例的比例。精度的计算公式是:

精度 = TP / (TP + FP)

在某些情况下,我们可能更关心避免假阳性(例如,确保电子邮件过滤器不会将重要邮件错误地标记为垃圾邮件),这时精度就会很有用。

8. 召回率 (Recall)

召回率(也被称为查全率,灵敏度,真阳性率或者命中率)是正确预测的正例占所有实际为正例的比例。召回率的计算公式是:

召回率 = TP / (TP + FN)

在某些情况下,我们可能更关心找出所有真正的正例(例如,诊断疾病或欺诈行为),这时召回率就会很有用。

9. F1 分数 (F1 Score)

F1 分数是精度

和召回率的调和平均值,它试图在这两个指标之间找到平衡。如果只关注精度或召回率,可能会对模型性能产生误导,而F1分数则提供了一种方式来同时考虑这两个指标。F1 分数的计算公式是:

F1 分数 = 2 * (精度 * 召回率) / (精度 + 召回率)

在处理不平衡数据集时,F1分数通常比准确度更有用,因为它考虑了假阴性和假阳性的影响。

10. ROC曲线和AUC

ROC曲线(接收者操作特性曲线)是一个图形表示,展示了在各种阈值设置下分类器的性能。ROC曲线下的面积(AUC)可以用来量化模型的整体性能:AUC值为1表示模型的预测完全准确,值为0.5表示模型的预测没有比随机预测更好。

11. 均方误差 (Mean Squared Error, MSE)

均方误差是回归模型最常用的评价指标之一。MSE是每个预测值与实际值之差的平方的平均值,公式如下:

MSE = Σ(y实际 - y预测)^2 / n

其中,y实际代表实际值,y预测代表预测值,n代表样本数量。MSE越小,说明模型预测的误差越小,模型性能越好。

12. 均方根误差 (Root Mean Squared Error, RMSE)

均方根误差是MSE的平方根,也常用于回归模型的评价。RMSE的公式如下:

RMSE = sqrt(MSE)

与MSE相比,RMSE更易于解释,因为它的单位与原始数据的单位相同。例如,如果你在预测房价(单位为美元),RMSE的值(例如,RMSE=50)可以解释为你的预测平均偏离实际房价约50美元。

对不起,我理解错了您的意思。下面是第9个评价指标“R^2分数(R^2 Score, Coefficient of Determination)”的重新介绍:

13. R^2分数(R^2 Score, Coefficient of Determination)

R^2分数,也被称为决定系数,是一种用于度量回归模型预测能力的统计指标。R^2分数衡量的是模型可以解释的数据方差的百分比,其取值范围是0到1。

R^2分数越接近1,说明模型可以解释更多的方差,预测性能更好。如果R^2分数为0,说明模型不比一个简单的基准模型(例如,一个始终预测平均值的模型)好。如果R^2分数为负,说明模型的性能比基准模型还差。

R^2分数的计算公式为:

R^2 Score = 1 - (SS_res / SS_tot)

其中,SS_res 是模型的残差平方和,SS_tot 是总的方差(也就是每个数据点与平均值的差的平方和)。

14. 交叉验证得分 (Cross-Validation Score)

交叉验证是一种统计学方法,通过将数据集分成k个部分(通常选择k=5或10),然后轮流使用其中的k-1个部分进行训练,剩余的一部分进行测试,从而评估机器学习模型的性能。交叉验证的得分通常是这k次训练/测试试验的平均得分。

交叉验证可以更好地理解模型对未知数据的泛化能力。一种常见的交叉验证方法是k-折交叉验证,其中原始样本被随机分配到k个子集,每个子集都会有一次机会作为验证集,其余的k-1个子集作为训练集。

15. Matthews Correlation Coefficient (MCC)

Matthews相关系数(MCC)是一个用于二元分类的评价指标。MCC考虑了真正、真负、假正和假负的数量,是一个平衡指标,适用于类别不平衡的数据集。其取值范围为-1到+1,+1表示完全一致,0表示随机预测,-1表示完全不一致。

MCC的计算公式为:

MCC = (TPTN - FPFN) / sqrt[(TP+FP)(TP+FN)(TN+FP)(TN+FN)]

16. Area Under the Precision-Recall Curve (AUC-PR)

AUC-PR是精确率和召回率曲线下的面积。和ROC曲线类似,但在处理类别不平衡的数据集时,PR曲线的面积通常比ROC曲线的面积更有用,因为它更关注正例。曲线越接近左上角,模型的性能越好。

img

17. Hamming Loss

Hamming Loss是多标签分类问题中的一个指标。它是错误预测的标签数量与总标签数的比例。Hamming Loss的值越小,模型的性能越好。

Hamming Loss的计算公式为:

Hamming Loss = (错误预测的标签数) / (总标签数)

18. Hinge Loss

Hinge Loss主要用于支持向量机和一些线性分类器中。Hinge Loss当预测结果和实际标签一致时为0,否则为它们之间的差距。

Hinge Loss的计算公式为:

Hinge Loss = max(0, 1 - y真实 * y预测)

其中,y真实是实际标签(-1或1),y预测是预测值。

19. Log Loss

Log Loss或对数损失是逻辑回归中常用的损失函数,也可以用

于评估二元分类和多分类问题的模型性能。对于预测概率p和实际标签y,单个样本的Log Loss定义为:

Log Loss = -(y log(p) + (1 - y) log(1 - p))

Log Loss越小,说明模型的性能越好。特别地,对于完全准确的预测,Log Loss为0。

20. 对比损失 (Contrastive Loss)

对比损失主要用于度量学习,特别是训练 Siamese networks(暹罗网络)或者类似的网络架构,这些网络通常用于判断两个输入样本是否属于同一类。对比损失的计算公式如下:

Contrastive Loss = (1/2) * Y * D^2 + (1/2) * (1-Y) * {max(0, margin - D)}^2

其中,Y 是二元指示符(如果两个输入样本来自同一类,则为1,否则为0),D 是网络对两个输入样本的输出的欧氏距离,margin 是一个超参数,通常设为一个正数。

21. Gini系数 (Gini Coefficient)

Gini系数源自经济学,用于衡量一个国家的收入不均。在机器学习中,我们可以将其用于衡量模型的不纯度。在决策树和随机森林中,Gini系数常用于选择最优特征和划分点。Gini系数的计算公式为:

Gini Coefficient = 1 - Σ(p_i)^2

其中,p_i 是第i个类别的概率。Gini系数的取值范围是0到1,0表示完全均匀,1表示完全不均匀。

22. 平均绝对误差 (Mean Absolute Error, MAE)

平均绝对误差是另一种用于回归模型的评价指标,它是所有预测值与实际值之差的绝对值的平均值。MAE的计算公式如下:

MAE计算公式

MAE的一个主要优点是它的解释性强,例如,如果你在预测房价(单位为美元),MAE的值(例如,MAE=50)可以解释为你的预测平均偏离实际房价约50美元。

23. 全部平均精度 (Mean Average Precision, MAP)

全平均精度主要用于信息检索和排名问题,是每个查询的平均精度的平均值。在每个查询中,精度是在某个排名位置时相关文档的数量与总文档数量的比例。MAP为所有查询的平均精度的平均值。

24. Jaccard系数 (Jaccard Index)

Jaccard系数,也称为交集/并集(Intersection over Union,IoU),是用于比较有限样本集的相似性和多样性的一种统计度量。它计算两个集合的交集大小与并集大小的比值。其计算公式为:

Jaccard Index = (A ∩ B) / (A ∪ B)

Jaccard系数的取值范围是0到1,0表示两个集合无交集,1表示两个集合完全相同。在图像分割问题中,Jaccard系数常常被用于比较预测的分割区域与真实的分割区域的相似度,也称为Jaccard相似度。

25. Cohen's Kappa

Cohen's Kappa 是一种衡量分类器性能的指标,特别是在处理多标签分类问题时。它解决了由于随机预测产生的正确分类的问题。如果 Kappa=1,表示分类器的预测和实际结果完全一致;如果 Kappa=0,表示分类器的预测和实际结果一致性不高于随机预测。它的计算公式如下:

Cohen's Kappa = (p_o - p_e) / (1 - p_e)

其中 p_o 是实际的准确率,p_e 是随机预测的准确率。

26. Logarithmic Loss (Log Loss)

Log Loss是一种衡量分类模型中概率预测准确程度的指标。它通常被用于二元分类问题,但也可以被扩展到多类分类问题。在Log Loss中,真实标签应该是0或1,预测标签应该在0和1之间。计算公式为:

Log Loss = -1/N Σ [y log(y_hat) + (1 - y) log(1 - y_hat)]

其中 y 是真实标签,y_hat 是预测标签,N 是样本数量。Log Loss的值越小,模型的性能越好。

27. Mean Squared Logarithmic Error (MSLE)

MSLE 是一种在回归问题中衡量模型性能的指标,特别是当目标变量可能取大数值时。相比于MSE,MSLE 更关注预测和真实值之比,而不是二者之差。它的计算公式为:

MSLE = 1/N Σ (log(p + 1) - log(a + 1))^2

其中 p 是预测值,a 是实际值,N 是样本数量。MSLE 的值越小,模型的性能越好。

28. Hinge Loss

Hinge Loss 是一种用于训练分类问题,特别是支持向量机(SVM)的损失函数。对于正确的预测,Hinge Loss 是 0;对于不正确的预测,Hinge Loss 是目标和预测之间的距离。它的计算公式为:

Hinge Loss = max(0, 1 - y_true * y_pred)

其中 y_true 是真实标签,y_pred 是预测标签。

29. Quadratic Weighted Kappa

Quadratic Weighted Kappa 也称为 QWK,是一种用于衡量分类器在有序分类问题中的性能的指标。QWK 考虑了每一对分类之间的距离,对预测结果进行加权。如果 QWK=1,表示分类器的预测和实际结果完全一致;如果 QWK=0,表示分类器的预测和实际结果一致性不高于随机预测。

30. Brier Score

Brier Score是一种衡量概率预测的准确性的指标,特别适用于二元和多元分类问题。Brier Score的计算公式为:

Brier Score = Σ (预测概率 - 实际结果)^2 / N

其中,N是样本数量。Brier Score的取值范围是0到1,0表示预测完全准确,1表示预测完全不准确。

31. Learning Curve (学习曲线)

学习曲线是一种用于可视化模型在随着训练样本数量的增加而改变的性能的工具。一般来说,随着训练样本数量的增加,模型的训练误差会增加,而验证误差会减少。通过观察学

习曲线,我们可以了解模型是否存在过拟合或欠拟合问题,以及是否能通过增加训练数据来改善模型的性能。

学习曲线通常通过在不同大小的训练集上训练模型,并记录训练误差和验证误差来绘制。训练误差和验证误差随着训练样本数量的增加而变化的趋势,就是学习曲线。

以上是一些用于评估和比较机器学习模型的更多度量。记住,选择哪种度量取决于你的具体应用,模型的类型,以及你对哪种类型的错误更敏感。这就是为什么通常会查看多种度量,以获得模型性能的全面视图。选择哪一个指标应根据具体的应用和数据集来决定。在科研中,这些指标经常用来衡量和比较不同模型的性能。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2024-12-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 机器学习算法常用指标总结
    • 1. 准确度 (Accuracy)
    • 2. 混淆矩阵 (Confusion Matrix)
    • 3. Sensitivity (敏感性)
    • 4. Specificity (特异性)
    • 5. Positive Predictive Value (PPV,阳性预测值)
    • 6. Negative Predictive Value (NPV,阴性预测值)
    • 7. 精度 (Precision)
    • 8. 召回率 (Recall)
    • 9. F1 分数 (F1 Score)
    • 10. ROC曲线和AUC
    • 11. 均方误差 (Mean Squared Error, MSE)
    • 12. 均方根误差 (Root Mean Squared Error, RMSE)
    • 13. R^2分数(R^2 Score, Coefficient of Determination)
    • 14. 交叉验证得分 (Cross-Validation Score)
    • 15. Matthews Correlation Coefficient (MCC)
    • 16. Area Under the Precision-Recall Curve (AUC-PR)
    • 17. Hamming Loss
    • 18. Hinge Loss
    • 19. Log Loss
    • 20. 对比损失 (Contrastive Loss)
    • 21. Gini系数 (Gini Coefficient)
    • 22. 平均绝对误差 (Mean Absolute Error, MAE)
    • 23. 全部平均精度 (Mean Average Precision, MAP)
    • 24. Jaccard系数 (Jaccard Index)
    • 25. Cohen's Kappa
    • 26. Logarithmic Loss (Log Loss)
    • 27. Mean Squared Logarithmic Error (MSLE)
    • 28. Hinge Loss
    • 29. Quadratic Weighted Kappa
    • 30. Brier Score
    • 31. Learning Curve (学习曲线)
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档