前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >专栏 >一文看懂机器学习指标(一)

一文看懂机器学习指标(一)

作者头像
木野归郎
发布于 2022-02-25 02:12:33
发布于 2022-02-25 02:12:33
4380
举报
文章被收录于专栏:share ai happinessshare ai happiness

大家好,我是小轩

这几天在训练一个模型,模型结果中涉及到一些参数,不太理解什么意思,就差了一些资料

这篇文章就是整理一下关于机器学习评价指标

评价指标:精确率、召回率、F1、AUC、ROC、混淆矩阵

评价指标是衡量一个模型的好坏

Note:这篇文章是关于单标签单分类评价指标介绍

那么什么是单标签分类呢?

让一段话或者一张图片通过模型判断是否高兴,判断的结果从一个维度去分析。

图 1

上面这个图的右边,1是打的标签(假设大于0.5是高兴,小于0.5是不高兴),所以这句话本来就想表达高兴,通过模型分析出来也是高兴。

举个栗子,现在有十个打好标签的数据,A列是打的标签,1表示高兴,0表示不高兴,B列是通过模型分析的结果。

图 2

先来介绍一下混淆矩阵

图 3

TP:打的标签为正,结果被正确预测为正

FP:打的标签为负,结果被错误预测为正

FN:打的标签为正,结果被错误预测为负

TN:打的标签为负,结果被正确预测为负

对于第一次了解指标的人来说可能有点不好理解,可以这样理解

举个例子:TP(T代表true,P代表positive)

TP就是真正(正确预测为正),FP就是假正(错误预测为正),以此类推...

统计图1,TP=3,FP=1,FN=3,TN=3

下面来介绍指标公式

精确率/查准率(precision)

查准率为是所有预测为正样本中,预测正确的比例

说通俗一些就是预测为正当中,为真正的正的比例,哎呀好绕口呀

召回率/查全率(recall)

查全率为是所有真实标签为正的样本中,预测正确的比例

说白了就是在所有正样本中,准确预测出为正的比例

F1

粗略的理解就是precision和recall平均值

F 分数是一个综合指标,为查准率和查全率的加权调和平均。

什么调和平均?

我就上网查了一下,还有加权调和平均数,咱们这里只说调和平均

我们可以用语言描述调和平均数:数据集的倒数的算术平均数的倒数。

听起来当中包含很多倒数,但实际上不过是一些简单的步骤:

1. 对数据集中的所有数字取倒数

2. 找到这些倒数的算术平均数

3. 对上一步所得取倒数

ROC曲线(AUC)

上面精确率和召回率可能存在一些问题

比如:在我们测试集当中,大部分都为正样本,模型不具备辨识能力,无论正样本还是负样本,可能会把结果全部判断为正,这时候预测率和召回率会特别高

当样本不均衡情况下,会使用ROC指标

ROC (Receiver Operation Characteristic)

横轴为假正例率(False Positive Rate), 纵轴为真正例率(True, Positive Rate)

表示所有真实类别为正例的样本中, 被预测为正例的比率, 其中TP+FN为固定值

表示所有真实类别为负例的样本中, 被预测为正例的比率, 其中FP+TN为固定值

ROC曲线绘制过程

比如下图

会有一个区间范围的阈值,如上图(0.0-1.0)

每个阀值产生一个点,将这些点连接起来

如果有什么问题可进行留言

下次整理一下多标签分类评价指标的计算

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-11-17,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 OnlyCoding 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
机器学习常用性能度量中的Precision、Recall、ROC、F score等都是些什么东西?
为什么有了Accuracy还要提出Precision的概念呢?因为前者在测试样本集的正负样本数不均衡的时候,比如正样本数为1,负样本数为99时,模型只要每次都将给定的样本预测成负样本,那么Accuracy = (0+99)/100 = 0.99,精度依然可以很高,但这毫无意义。但是同样的样本集,同样的方法运用到查准率公式上,就不可能得到一个很高的值了。
程序员一一涤生
2019/09/24
1.5K0
机器学习常用性能度量中的Precision、Recall、ROC、F score等都是些什么东西?
深度学习笔记 常用的模型评估指标
“没有测量,就没有科学。”这是科学家门捷列夫的名言。在计算机科学中,特别是在机器学习的领域,对模型的测量和评估同样至关重要。只有选择与问题相匹配的评估方法,我们才能够准确地发现在模型选择和训练过程中可能出现的问题,再对模型进行优化。本文将总结机器学习最常见的模型评估指标,其中包括:
叶庭云
2021/12/01
5360
深度学习笔记 常用的模型评估指标
[白话解析] 通过实例来梳理概念 :准确率 (Accuracy)、精准率(Precision)、召回率(Recall)和F值(F-Measure)
二分类评估是对二分类算法的预测结果进行效果评估。本文将构造出一个水泊梁山的具体实例带领大家梳理相关概念。
罗西的思考
2020/09/07
5.9K0
[白话解析] 通过实例来梳理概念 :准确率 (Accuracy)、精准率(Precision)、召回率(Recall)和F值(F-Measure)
搞懂机器学习的常用评价指标!
我与评价指标的首次交锋是第一次实习面试时,面试官开头就问分类任务的评价指标。我当时TP,FP,FN,TN各种组合一顿上,回答得乱七八糟。后来经历多了,发现评价指标的确是面试的高频考点。
Datawhale
2021/07/30
5640
大数据技术之_19_Spark学习_08_Spark 机器学习_01_机器学习概述 + 机器学习的相关概念 + 算法常用指标
  一组数据的集合被称作数据集,用于模型训练的数据集叫训练集,用于测试的数据集叫测试集。一个数据集包含多条数据,一条数据包含多个属性。
黑泽君
2019/05/14
5470
大数据技术之_19_Spark学习_08_Spark 机器学习_01_机器学习概述 + 机器学习的相关概念 + 算法常用指标
分类模型评估指标汇总
对模型进行评估时,可以选择很多种指标,但不同的指标可能得到不同的结果,如何选择合适的指标,需要取决于任务需求。
统计学家
2019/12/04
1K0
机器学习常用性能度量中的Accuracy、Precision、Recall、ROC、F score等都是些什么东西?
为什么有了Accuracy还要提出Precision的概念呢?因为前者在测试样本集的正负样本数不均衡的时候,比如正样本数为1,负样本数为99时,模型只要每次都将给定的样本预测成负样本,那么Accuracy = (0+99)/100 = 0.99,精度依然可以很高,但这毫无意义。但是同样的样本集,同样的方法运用到查准率公式上,就不可能得到一个很高的值了。
程序员一一涤生
2019/09/29
1.2K0
机器学习常用性能度量中的Accuracy、Precision、Recall、ROC、F score等都是些什么东西?
贾尚文_roc指标详解及实战用法
其中,TP(真正,True Positive)表示真正结果为正例,预测结果也是正例;FP(假正,False Positive)表示真实结果为负例,预测结果却是正例;TN(真负,True Negative)表示真实结果为正例,预测结果却是负例;FN(假负,False Negative)表示真实结果为负例,预测结果也是负例。显然,TP+FP+FN+TN=样本总数。
全栈程序员站长
2022/09/28
9890
贾尚文_roc指标详解及实战用法
机器学习-07-分类回归和聚类算法评估函数
本系列是机器学习课程的系列课程,主要介绍机器学习中分类回归和聚类算法中的评价函数。
用户2225445
2024/04/10
2690
机器学习-07-分类回归和聚类算法评估函数
《机器学习》学习笔记(二)——模型评估与选择
错误率(error rate):分类错误的样本占样本总数的比例 精度(accuracy):1 - 错误率误差(error):学习器的实际预测输出与样本的真实输出之间的差异 错误率和精度相反 (错误率+精度=1) 训练误差(training error)(即经验误差(empirical error)):学习器在训练集上的误差 泛化误差(generalization error):在新样本(即测试样本)上的误差
荣仔_最靓的仔
2021/02/02
2.1K0
《机器学习》学习笔记(二)——模型评估与选择
什么是算法评价指标
在我们建立一个学习算法时,或者说训练一个模型时,我们总是希望最大化某一个给定的评价指标(比如说准确度Acc),但算法在学习过程中又会尝试优化某一个损失函数(比如说均方差MSE或者交叉熵Cross-entropy)。
zhangjiqun
2024/12/14
1620
什么是算法评价指标
机器学习算法评价指标
准确率(accuracy):(TP + TN )/( TP + FP + TN + FN)
分母为零
2020/05/11
8530
机器学习模型评估指标
实际应用中,评估指标依具体问题灵活使用,在选择模型和调整参数过程中选择正确的指标十分重要。模型评估目标应以业务目标为导向,选择最合适的评估指标。
aiplus
2021/11/04
2.4K0
【机器学习 | 分类指标大全】全面解析分类评估指标:从准确率到AUC,多分类问题也不在话下, 确定不来看看?
🙋‍♂️声明:本人目前大学就读于大二,研究兴趣方向人工智能&硬件(虽然硬件还没开始玩,但一直很感兴趣!希望大佬带带)
计算机魔术师
2023/09/24
1K0
机器学习分类模型10大评价指标
机器学习分类模型的评价指标是在衡量模型在未知数据集上的性能表现,通常基于混淆矩阵和相关的评价指标。
皮大大
2023/10/13
7960
机器学习算法常用指标总结
准确度是衡量模型性能的最基本指标。它的定义非常简单,就是模型预测正确的次数占总预测次数的比例。准确度的计算公式是:
zhangjiqun
2024/12/14
1570
机器学习算法常用指标总结
你真的了解模型评估与选择嘛
前面几讲我们基于数据分析师需要掌握的基本技能,从SQL出发,学习了统计学的基本知识,在系统层面基本讲完了数据分析师需要具备的能力。下面几讲,我们会围绕数据挖掘工程师需具备的知识体系展开,今天会着重介绍机器学习中模型评估与选择的基础知识。
数据万花筒
2020/12/30
7400
你真的了解模型评估与选择嘛
机器学习性能评价指标汇总
AUC 是 ROC (Receiver Operating Characteristic) 曲线以下的面积, 介于0.1和1之间。Auc作为数值可以直观的评价分类器的好坏,值越大越好。
莫斯
2020/09/10
1.2K0
机器学习性能评价指标汇总
【干货】不止准确率:为分类任务选择正确的机器学习度量指标(附代码实现)
【导读】本文是数据科学研究者William Koehrsen撰写的技术博文,介绍了在分类模型中需要用到的度量标准。我们知道,准确率是我们在分类任务中最常用到的度量指标,但是单纯的准确率并不能说明模型的
WZEARW
2018/04/08
2.1K0
【干货】不止准确率:为分类任务选择正确的机器学习度量指标(附代码实现)
机器学习算法常用指标总结
来自:Poll的笔记 链接:http://www.cnblogs.com/maybe2030/p/5375175.html(点击尾部阅读原文前往) 阅读目录 1、TPR、FPR&TNR 2、精确率Precision、召回率Recall和F1值 3、综合评价指标F-measure 4、ROC曲线和AUC 考虑一个二分问题,即将实例分成正类(positive)或负类(negative)。对一个二分问题来说,会出现四种情况。如果一个实例是正类并且也被 预测成正类,即为真正类(True positive),如果实
智能算法
2018/04/02
8280
机器学习算法常用指标总结
推荐阅读
相关推荐
机器学习常用性能度量中的Precision、Recall、ROC、F score等都是些什么东西?
更多 >
领券
社区富文本编辑器全新改版!诚邀体验~
全新交互,全新视觉,新增快捷键、悬浮工具栏、高亮块等功能并同时优化现有功能,全面提升创作效率和体验
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文