首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >姿态估计 - 关键点 heatmap 生成方法对比

姿态估计 - 关键点 heatmap 生成方法对比

作者头像
AIHGF
发布于 2018-05-17 02:13:07
发布于 2018-05-17 02:13:07
3.7K00
代码可运行
举报
文章被收录于专栏:AIUAIAIUAI
运行总次数:0
代码可运行

关键点 heatmap 生成方法对比

人体姿态估计中,groundtruth 由 (x, y) 变为 heatmap 形式,这里探索了几种不同的生成 heatmap 的方法.

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
import time
import numpy as np
import cv2
import matplotlib.pyplot as plt


def CenterLabelHeatMap(img_width, img_height, c_x, c_y, sigma):
    X1 = np.linspace(1, img_width, img_width)
    Y1 = np.linspace(1, img_height, img_height)
    [X, Y] = np.meshgrid(X1, Y1)
    X = X - x
    Y = Y - y
    D2 = X * X + Y * Y
    E2 = 2.0 * sigma * sigma
    Exponent = D2 / E2
    heatmap = np.exp(-Exponent)
    return label


# Compute gaussian kernel
def CenterGaussianHeatMap(img_height, img_width, c_x, c_y, variance):
    gaussian_map = np.zeros((img_height, img_width))
    for x_p in range(img_width):
        for y_p in range(img_height):
            dist_sq = (x_p - c_x) * (x_p - c_x) + \
                      (y_p - c_y) * (y_p - c_y)
            exponent = dist_sq / 2.0 / variance / variance
            gaussian_map[y_p, x_p] = np.exp(-exponent)
    return gaussian_map


image_file = 'test.jpg'
img = cv2.imread(image_file)
img = img[:,:,::-1]

height, width,_ = np.shape(img)
cy, cx = height/2.0, width/2.0

start = time.time()
heatmap1 = CenterLabelHeatMap(width, height, cx, cy, 21)
t1 = time.time() - start

start = time.time()
heatmap2 = CenterGaussianHeatMap(height, width, cx, cy, 21)
t2 = time.time() - start

print(t1, t2)

plt.subplot(1,2,1)
plt.imshow(heatmap1)
plt.subplot(1,2,2)
plt.imshow(heatmap2)
plt.show()

print('End.')

(t1, t2): (0.020607948303222656, 0.6914258003234863)

CPM 给出的 C++ 实现:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
template<typename Dtype>
void DataTransformer<Dtype>::putGaussianMaps(Dtype* entry, Point2f center, int stride, int grid_x, int grid_y, float sigma){
  //LOG(INFO) << "putGaussianMaps here we start for " << center.x << " " << center.y;
  float start = stride/2.0 - 0.5; //0 if stride = 1, 0.5 if stride = 2, 1.5 if stride = 4, ...
  for (int g_y = 0; g_y < grid_y; g_y++){
    for (int g_x = 0; g_x < grid_x; g_x++){
      float x = start + g_x * stride;
      float y = start + g_y * stride;
      float d2 = (x-center.x)*(x-center.x) + (y-center.y)*(y-center.y);
      float exponent = d2 / 2.0 / sigma / sigma;
      if(exponent > 4.6052){ //ln(100) = -ln(1%)
        continue;
      }
      entry[g_y*grid_x + g_x] += exp(-exponent);
      if(entry[g_y*grid_x + g_x] > 1) 
        entry[g_y*grid_x + g_x] = 1;
    }
  }
} 
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018年03月26日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
论文阅读理解 - Convolutional Pose Machines
CPMs 由全卷积网络序列化组成,并重复输出每个关节点的 2D 置信图. 每一个stage,采用图像特征和上一 stage 输出的2D置信图作为输入.
AIHGF
2019/02/27
2.6K0
基于python的人群密度图生成
相关原理见:https://zhuanlan.zhihu.com/p/39424587
sparkexpert
2019/08/01
1.7K0
OpenPose 基于OpenCV DNN 的多人姿态估计
原文: OpenPose 基于OpenCV DNN 的多人姿态估计 - AIUAI
AIHGF
2019/04/01
5.2K4
OpenPose 基于OpenCV DNN 的手部关键点检测
原文:OpenPose 基于OpenCV DNN 的手部关键点检测 - AIUAI
AIHGF
2019/06/14
3.7K0
利用Caffe推理CenterNet(下篇)
此文章作为存档文章,caffe虽然不是c++版本运行CenterNet的最优方式,但也是一种选择。这里仅仅是记录,承接利用Caffe推理CenterNet(上篇)。
老潘
2023/10/19
2670
利用Caffe推理CenterNet(下篇)
YOLOV3 基于OpenCV DNN 的目标检测实现
这里主要是对 基于 YOLOV3 和 OpenCV的目标检测(PythonC++)[译] Python 完整实现的整理.
AIHGF
2019/04/01
1.9K1
YOLOV3 基于OpenCV DNN 的目标检测实现
OpenPose 基于OpenCV DNN 的单人姿态估计
原文: OpenPose 基于OpenCV DNN 的单人姿态估计 - AIUAI
AIHGF
2019/04/01
3.6K0
OpenPose 基于OpenCV DNN 的单人姿态估计
PyTorch版CenterNet数据加载解析
本文主要解读CenterNet如何加载数据,并将标注信息转化为CenterNet规定的高斯分布的形式。
BBuf
2020/07/28
1.6K0
PyTorch版CenterNet数据加载解析
利用python实现地理加权回归(GWR)与网约车订单数据挖掘
说到地理加权回归,相信大家肯定不会陌生。作为一种先进的空间数据分析技术,地理加权回归能够充分捕捉空间关系的非平稳性。举个简单的不恰当的例子,我们要对中国各个城市的奢侈品消费量与人均收入进行建模。正常的的理解是人均收入越高,奢侈品消费量就越大,在全国各个城市都应该是这种关系(这也正是全局模型的前提假设)。但事实真的是这样吗?现实情况可能是在一些比较张扬的地方(比如我们大东百
DataCharm
2021/02/22
5.2K5
利用python实现地理加权回归(GWR)与网约车订单数据挖掘
CenterNet测试推理过程
代码注释在:https://github.com/pprp/SimpleCVReproduction/tree/master/CenterNet
BBuf
2020/09/02
1.1K0
计算机视觉-YOYO-
对计算机而言,能够“看到”的是图像被编码之后的数字,但它很难理解高层语义概念,比如图像或者视频帧中出现的目标是人还是物体,更无法定位目标出现在图像中哪个区域。目标检测的主要目的是让计算机可以自动识别图片或者视频帧中所有目标的类别,并在该目标周围绘制边界框,标示出每个目标的位置,如 图1 所示。
zhangjiqun
2024/12/14
1530
计算机视觉-YOYO-
MaskRCNN 基于OpenCV DNN的目标检测与实例分割
这里主要记录基于 OpenCV 4.x DNN 模块和 TensorFlow MaskRCNN 开源模型的目标检测与实例分割 的实现.
AIHGF
2019/05/13
2K0
MaskRCNN 基于OpenCV DNN的目标检测与实例分割
利用Caffe推理CenterNet(上篇)
假设我们已经训练好了一个CenterNet模型。这里我拿ResNet50作为例子。
老潘
2023/10/19
3810
模型转换实战分享:OpenPose手部关键点检测模型的迁移部署
当你在开源平台上看到一个优质的深度学习模型并想使用它时,很多时候会遇到一个棘手的问题,就是这个模型所使用的深度学习框架与你所熟悉的框架并不相同,导致你难以快速的使用这个模型。
用户1386409
2020/11/16
1.4K0
模型转换实战分享:OpenPose手部关键点检测模型的迁移部署
Faster RCNN 基于 OpenCV DNN 的目标检测实现
在前面已经测试过 YOLOV3 和 SSD 基于 OpenCV DNN 的目标检测实现,这里再简单实现下 Faster RCNN 基于 DNN 的实现.
AIHGF
2019/05/13
1.1K0
Faster RCNN 基于 OpenCV DNN 的目标检测实现
使用关键点进行小目标检测
【GiantPandaCV导语】本文是笔者出于兴趣搞了一个小的库,主要是用于定位红外小目标。由于其具有尺度很小的特点,所以可以尝试用点的方式代表其位置。本文主要采用了回归和heatmap两种方式来回归关键点,是一个很简单基础的项目,代码量很小,可供新手学习。
BBuf
2020/09/10
1K0
识别引擎ocropy-&gt;ocropy2-&gt;OCRopus3总结
Transfer Learning for OCRopus Model Training on Early Printed Books
全栈程序员站长
2022/07/23
7950
识别引擎ocropy-&gt;ocropy2-&gt;OCRopus3总结
Deep learning with Python 学习笔记(10)
机器学习模型能够对图像、音乐和故事的统计潜在空间(latent space)进行学习,然后从这个空间中采样(sample),创造出与模型在训练数据中所见到的艺术作品具有相似特征的新作品
范中豪
2019/09/10
9620
Deep learning with Python 学习笔记(10)
自己写个 Prisma
本文介绍了如何通过使用TensorFlow和Keras库实现一个简单的生成对抗网络(GAN),用于生成类似于Prisma的图像。作者使用VGG16作为生成器和判别器,通过反向传播算法训练模型,并利用限制-内存优化算法进行超参数调整,最终生成高质量的图像。
MachineLP
2018/01/09
6910
自己写个 Prisma
Object Detection-YOLOv2 Input And Output Encoding
本文主要学习在PASCAL VOC2012数据集上训练YOLOv2时的Input Encoding和Output Encoding。
YoungTimes
2022/04/28
4190
Object Detection-YOLOv2 Input And Output Encoding
相关推荐
论文阅读理解 - Convolutional Pose Machines
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档