Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >PASCAL VOC的评估代码voc_eval.py解析

PASCAL VOC的评估代码voc_eval.py解析

作者头像
狼啸风云
修改于 2022-09-03 11:45:18
修改于 2022-09-03 11:45:18
1.8K00
代码可运行
举报
运行总次数:0
代码可运行

目录

1、读检测的结果

2、解析一幅图像中的目标数

3、计算AP

4、VOC的评估

5、进行python评估

6、voc的检测评估


1、读检测的结果

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def write_voc_results_file(all_boxes, test_imgid_list, det_save_dir):
  for cls, cls_id in NAME_LABEL_MAP.items():
    if cls == 'back_ground':
      continue
    print("Writing {} VOC resutls file".format(cls))

    mkdir(det_save_dir)
    det_save_path = os.path.join(det_save_dir, "det_"+cls+".txt")
    with open(det_save_path, 'wt') as f:
      for index, img_name in enumerate(test_imgid_list):
        this_img_detections = all_boxes[index]

        this_cls_detections = this_img_detections[this_img_detections[:, 0]==cls_id]
        if this_cls_detections.shape[0] == 0:
          continue # this cls has none detections in this img
        for a_det in this_cls_detections:
          f.write('{:s} {:.3f} {:.1f} {:.1f} {:.1f} {:.1f}\n'.
                  format(img_name, a_det[1],
                         a_det[2], a_det[3],
                         a_det[4], a_det[5]))  # that is [img_name, score, xmin, ymin, xmax, ymax]

参数:

  • all_boxes:一个列表,每个部件代表一幅图像的检测,检测的结果是一个数组,形状为[-1,6],形式为[category, score, xmin, ymin, xmax, ymax],如果检测到的结果不在图像中,检测是空数组。
  • test_imgid_list:测试的图像列表。
  • det_save_path:检测保存的地址。

2、解析一幅图像中的目标数

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def parse_rec(filename):
  """ Parse a PASCAL VOC xml file """
  tree = ET.parse(filename)
  objects = []
  for obj in tree.findall('object'):
    obj_struct = {}
    obj_struct['name'] = obj.find('name').text
    obj_struct['pose'] = obj.find('pose').text
    obj_struct['truncated'] = int(obj.find('truncated').text)
    obj_struct['difficult'] = int(obj.find('difficult').text)
    bbox = obj.find('bndbox')
    obj_struct['bbox'] = [int(bbox.find('xmin').text),
                          int(bbox.find('ymin').text),
                          int(bbox.find('xmax').text),
                          int(bbox.find('ymax').text)]
    objects.append(obj_struct)
  return objects

因为PASCAL VOC的标记格式是xml,此函数作用主要是解析xml文件。

3、计算AP

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def voc_ap(rec, prec, use_07_metric=False):
  if use_07_metric:
    # 11 point metric
    ap = 0.
    for t in np.arange(0., 1.1, 0.1):
      if np.sum(rec >= t) == 0:
        p = 0
      else:
        p = np.max(prec[rec >= t])
      ap = ap + p / 11.
  else:
    # correct AP calculation
    # first append sentinel values at the end
    mrec = np.concatenate(([0.], rec, [1.]))
    mpre = np.concatenate(([0.], prec, [0.]))

    # compute the precision envelope
    for i in range(mpre.size - 1, 0, -1):
      mpre[i - 1] = np.maximum(mpre[i - 1], mpre[i])

    # to calculate area under PR curve, look for points
    # where X axis (recall) changes value
    i = np.where(mrec[1:] != mrec[:-1])[0]

    # and sum (\Delta recall) * prec
    ap = np.sum((mrec[i + 1] - mrec[i]) * mpre[i + 1])
  return ap

给定精度和召回率计算VOC的AP,如果use_07_metric为真,使用VOC 07 11点方法。

4、VOC的评估

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def voc_eval(detpath, annopath, test_imgid_list, cls_name, ovthresh=0.5,
                 use_07_metric=False, use_diff=False):
  # 1. parse xml to get gtboxes
  # read list of images
  imagenames = test_imgid_list

  recs = {}
  for i, imagename in enumerate(imagenames):
    recs[imagename] = parse_rec(os.path.join(annopath, imagename+'.xml'))
    # if i % 100 == 0:
    #   print('Reading annotation for {:d}/{:d}'.format(
    #     i + 1, len(imagenames)))

  # 2. get gtboxes for this class.
  class_recs = {}
  num_pos = 0
  # if cls_name == 'person':
  #   print ("aaa")
  for imagename in imagenames:
    R = [obj for obj in recs[imagename] if obj['name'] == cls_name]
    bbox = np.array([x['bbox'] for x in R])
    if use_diff:
      difficult = np.array([False for x in R]).astype(np.bool)
    else:
      difficult = np.array([x['difficult'] for x in R]).astype(np.bool)
    det = [False] * len(R)
    num_pos = num_pos + sum(~difficult)  # ignored the diffcult boxes
    class_recs[imagename] = {'bbox': bbox,
                             'difficult': difficult,
                             'det': det} # det means that gtboxes has already been detected

  # 3. read the detection file
  detfile = os.path.join(detpath, "det_"+cls_name+".txt")
  with open(detfile, 'r') as f:
    lines = f.readlines()
  # for a line. that is [img_name, confidence, xmin, ymin, xmax, ymax]
  splitlines = [x.strip().split(' ') for x in lines]  # a list that include a list
  image_ids = [x[0] for x in splitlines]  # img_id is img_name
  confidence = np.array([float(x[1]) for x in splitlines])
  BB = np.array([[float(z) for z in x[2:]] for x in splitlines])
  nd = len(image_ids) # num of detections. That, a line is a det_box.
  tp = np.zeros(nd)
  fp = np.zeros(nd)

  if BB.shape[0] > 0:
    # sort by confidence
    sorted_ind = np.argsort(-confidence)
    sorted_scores = np.sort(-confidence)
    BB = BB[sorted_ind, :]
    image_ids = [image_ids[x] for x in sorted_ind]  #reorder the img_name

    # go down dets and mark TPs and FPs
    for d in range(nd):
      R = class_recs[image_ids[d]]  # img_id is img_name
      bb = BB[d, :].astype(float)
      ovmax = -np.inf
      BBGT = R['bbox'].astype(float)

      if BBGT.size > 0:
        # compute overlaps
        # intersection
        ixmin = np.maximum(BBGT[:, 0], bb[0])
        iymin = np.maximum(BBGT[:, 1], bb[1])
        ixmax = np.minimum(BBGT[:, 2], bb[2])
        iymax = np.minimum(BBGT[:, 3], bb[3])
        iw = np.maximum(ixmax - ixmin + 1., 0.)
        ih = np.maximum(iymax - iymin + 1., 0.)
        inters = iw * ih

        # union
        uni = ((bb[2] - bb[0] + 1.) * (bb[3] - bb[1] + 1.) +
               (BBGT[:, 2] - BBGT[:, 0] + 1.) *
               (BBGT[:, 3] - BBGT[:, 1] + 1.) - inters)

        overlaps = inters / uni
        ovmax = np.max(overlaps)
        jmax = np.argmax(overlaps)

      if ovmax > ovthresh:
        if not R['difficult'][jmax]:
          if not R['det'][jmax]:
            tp[d] = 1.
            R['det'][jmax] = 1
          else:
            fp[d] = 1.
      else:
        fp[d] = 1.

  # 4. get recall, precison and AP
  fp = np.cumsum(fp)
  tp = np.cumsum(tp)
  rec = tp / float(num_pos)
  # avoid divide by zero in case the first detection matches a difficult
  # ground truth
  prec = tp / np.maximum(tp + fp, np.finfo(np.float64).eps)
  ap = voc_ap(rec, prec, use_07_metric)

  return rec, prec, ap

参数:

  • param detpath.
  • param annopath.
  • param test_imgid_list: it 's a list that contains the img_name of test_imgs.
  • param cls_name.
  • param ovthresh.
  • param use_07_metric.
  • param use_diff.

5、进行python评估

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def do_python_eval(test_imgid_list, test_annotation_path):
  AP_list = []
  # import matplotlib.pyplot as plt
  # import matplotlib.colors as colors
  # color_list = colors.cnames.keys()[::6]

  for cls, index in NAME_LABEL_MAP.items():
    if cls == 'back_ground':
      continue
    recall, precision, AP = voc_eval(detpath=os.path.join(cfgs.EVALUATE_DIR, cfgs.VERSION),
                                     test_imgid_list=test_imgid_list,
                                     cls_name=cls,
                                     annopath=test_annotation_path,
                                     use_07_metric=cfgs.USE_07_METRIC)
    AP_list += [AP]
    print("cls : {}|| Recall: {} || Precison: {}|| AP: {}".format(cls, recall[-1], precision[-1], AP))
    # plt.plot(recall, precision, label=cls, color=color_list[index])
    # plt.legend(loc='upper right')
    # print(10*"__")
  # plt.show()
  # plt.savefig(cfgs.VERSION+'.jpg')
  print("mAP is : {}".format(np.mean(AP_list)))

6、voc的检测评估

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
def voc_evaluate_detections(all_boxes, test_annotation_path, test_imgid_list):
  '''
  :param all_boxes: is a list. each item reprensent the detections of a img.The detections is a array. shape is [-1, 6]. [category, score, xmin, ymin, xmax, ymax].Note that: if none detections in this img. that the detetions is : []
  :return:
  '''
  test_imgid_list = [item.split('.')[0] for item in test_imgid_list]
  write_voc_results_file(all_boxes, test_imgid_list=test_imgid_list,
                         det_save_dir=os.path.join(cfgs.EVALUATE_DIR, cfgs.VERSION))
  do_python_eval(test_imgid_list, test_annotation_path=test_annotation_path)

参数:

  • 一个列表,每个部件代表检测到的一幅图像,检测结果是一个数组。
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019/11/29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
目标检测算法之常见评价指标(mAP)的详细计算方法及代码解析
之前简单介绍过目标检测算法的一些评价标准,地址为目标检测算法之评价标准和常见数据集盘点。然而这篇文章仅仅只是从概念性的角度来阐述了常见的评价标准如Acc,Precision,Recall,AP等。并没有从源码的角度来分析具体的计算过程,这一篇推文的目的就是结合代码再次详细的解释目标检测算法中的常见评价标准如Precision,Recall,AP,mAP的具体计算过程。
BBuf
2020/02/12
8.9K0
目标检测算法之常见评价指标(mAP)的详细计算方法及代码解析
目标检测mAP计算方式
目标检测中常见的mAP计算说起来比较麻烦,所以结合VOC的计算代码进行一次详细的解析。
泽霖
2023/11/26
4730
目标检测中AP和mAP计算详解(代码全解)
✔️ 准确率=预测正确的样本数/所有样本数,即预测正确的样本比例(包括预测正确的正样本和预测正确的负样本,不过在目标检测领域,没有预测正确的负样本这一说法,所以目标检测里面没有用Accuracy的)。
小草AI
2019/11/01
6.2K0
目标检测中AP和mAP计算详解(代码全解)
【pytorch-ssd目标检测】验证自己创建的数据集
制作类似pascal voc格式的目标检测数据集:https://www.cnblogs.com/xiximayou/p/12546061.html
西西嘛呦
2020/08/26
1K0
【pytorch-ssd目标检测】验证自己创建的数据集
目标检测基本概念与性能评价指标计算
不同的问题和不同的数据集都会有不同的模型评价指标,比如分类问题,数据集类别平衡的情况下可以使用准确率作为评价指标,但是现实中的数据集几乎都是类别不平衡的,所以一般都是采用 AP 作为评价指标,分别计算每个类别的 AP,再计算mAP。
嵌入式视觉
2022/09/05
9150
目标检测基本概念与性能评价指标计算
目标检测4: Detection基础之mAP
前面目标检测1: 目标检测20年综述之(一)和目标检测2: 目标检测20年综述之(二)让大家对目标检测有个大概的认识,机器学习评价指标合辑(Precision/Recall/F1score/P-R曲线/ROC曲线/AUC)介绍了基础的评价指标,如Precision、Recall、F score等概念,目标检测3: Detection基础之IoU中介绍了目标检测的评价指标IoU,接下来我们介绍目标检测最重要的评价指标mAP。
枫桦
2022/08/02
1K0
目标检测4: Detection基础之mAP
目标检测模型的评价标准-AP与mAP
为了了解模型的泛化能力,即判断模型的好坏,我们需要用某个指标来衡量,有了评价指标,就可以对比不同模型的优劣,并通过这个指标来进一步调参优化模型。对于分类和回归两类监督模型,分别有各自的评判标准。
h3110_w0r1d
2025/02/04
1500
绘制PR曲线[通俗易懂]
运行darknet官方代码中的darknet detector valid data cfg weight指令(例如: darknet.exe detector valid data/koujian/koujian.data cfg/yolov3-tiny11.cfg backup/yolov3-tiny11_last.weights),可以在result/目录下得到网络检测的输出txt文件:包括检测的图像名字、类别、概率、边界框位置(左上角和右下角):
全栈程序员站长
2022/09/14
1.6K0
绘制PR曲线[通俗易懂]
绝对不容错过:最完整的检测模型评估指标mAP计算指南(附代码)在这里!
作者: 叶 虎 编辑: 赵一帆 前 言 本文翻译自Measuring Object Detection models - mAP - What is Mean Average Pr
机器学习算法工程师
2018/07/27
4.2K0
绝对不容错过:最完整的检测模型评估指标mAP计算指南(附代码)在这里!
​零基础入门深度学习(九):目标检测之常用数据预处理与增广方法
本课程是百度官方开设的零基础入门深度学习课程,主要面向没有深度学习技术基础或者基础薄弱的同学,帮助大家在深度学习领域实现从0到1+的跨越。从本课程中,你将学习到:
用户1386409
2020/02/19
1.8K0
基于YOLOv8的安全帽检测系统
Ultralytics YOLOv8是Ultralytics公司开发的YOLO目标检测和图像分割模型的最新版本。YOLOv8是一种尖端的、最先进的(SOTA)模型,它建立在先前YOLO成功基础上,并引入了新功能和改进,以进一步提升性能和灵活性。它可以在大型数据集上进行训练,并且能够在各种硬件平台上运行,从CPU到GPU。
AI小怪兽
2025/01/07
1470
【目标跟踪】多目标跟踪sort (python 代码)
读书猿
2024/02/05
5310
【目标跟踪】多目标跟踪sort (python 代码)
【图像分类】基于Pascal VOC2012增强数据的多标签图像分类实战
基于image-level的弱监督图像语义分割大多数以传统分类网络作为基础,从分类网络中提取物体的位置信息,作为初始标注。
OpenCV学堂
2019/07/12
3.9K1
【图像分类】基于Pascal VOC2012增强数据的多标签图像分类实战
【Faster R-CNN】2. Faster RCNN代码解析第一弹
在2月10日,Faster RCNN专栏由pprp同学起了个头,文章地址见这里:【Faster R-CNN】1. 梳理Faster R-CNN的四个模块,本着对公众号的每个专栏负责任的态度,我将在接下来的时间里将整个Faster RCNN的原理以及代码(陈云大佬的:https://github.com/chenyuntc/simple-faster-rcnn-pytorch)按照我的理解讲清楚并结束这个专题。
BBuf
2020/05/19
1.3K0
基于深度学习的自动车牌识别(详细步骤+源码)
本文将重点介绍 ALPR 的端到端实现。它将侧重于两个过程:车牌检测和检测到的车牌的 OCR。(公众号:OpenCV与AI深度学习)
Color Space
2022/04/06
7.4K0
基于深度学习的自动车牌识别(详细步骤+源码)
基于YOLOv9的道路缺陷检测,加入DCNv4、自研BSAM注意力、极简的神经网络VanillaBlock 、自适应阈值焦点损失提升检测精度
💡💡💡本文内容:针对基于YOLOv9的道路缺陷检测进行性能提升,加入各个创新点做验证性试验。
AI小怪兽
2024/04/16
7120
DL开源框架Caffe | 目标检测Faster-rcnn问题全解析
本文介绍了如何使用深度学习检测物体,并提供了相关代码和教程。主要包括以下内容:1.基于Faster R-CNN的物体检测;2.使用PyTorch实现Faster R-CNN;3.训练自己的数据集进行物体检测;4.如何优化物体检测的精度;5.使用多GPU进行训练。
码科智能
2018/01/02
1.3K0
DL开源框架Caffe | 目标检测Faster-rcnn问题全解析
PASCAL VOC统计各类目标数量
# -*- coding:utf-8 -*-import osimport xml.etree.ElementTree as ETimport numpy as npnp.set_printoptions(suppress=True, threshold=1000000)import matplotlibfrom PIL import Imagedef parse_obj(xml_path, filename): tree = ET.parse(xml_path + filename) obje
狼啸风云
2020/07/14
1.2K0
Yolov8 源码解析(四十二)
ApacheCN_飞龙
2024/09/13
3750
【从零开始学习YOLOv3】2. YOLOv3中的代码配置和数据集构建
到https://pytorch.org/中根据操作系统,python版本,cuda版本等选择命令即可。
BBuf
2020/02/14
1.6K0
【从零开始学习YOLOv3】2. YOLOv3中的代码配置和数据集构建
推荐阅读
相关推荐
目标检测算法之常见评价指标(mAP)的详细计算方法及代码解析
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
本文部分代码块支持一键运行,欢迎体验
本文部分代码块支持一键运行,欢迎体验