前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >美国Rutgers大学最新开源:端到端6D物体姿态跟踪,无需标注数据集!

美国Rutgers大学最新开源:端到端6D物体姿态跟踪,无需标注数据集!

作者头像
3D视觉工坊
发布2020-12-03 11:32:03
4680
发布2020-12-03 11:32:03
举报
文章被收录于专栏:3D视觉从入门到精通

最近,美国Rutgers大学PRACSYS Lab新开源了用于6D物体姿态跟踪的代码Se(3)-TrackNet,该工作已经被IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS)录用。其中第一作者为华人在读博士Bowen Wen,曾在Facebook Reality Labs, Amazon和商汤科技实习。

亮点

该开源项目主要亮点如下

1.提出了全新的端到端的神经网络用于6D物体姿态跟踪。

2.只需要合成的数据进行训练,不需要任何人工标注数据训练,就能在真实世界的视频中表现良好。实现了sim-to-real transfer。

3.在YCB-Video数据集上取得了领先的表现和速度。远远超过其他state of art的方法。

4.此外,作者还发布了一个全新的数据集,名为YCBInEOAT。收集了多个机械臂manipulation过程中的视频并为每一帧提供了6D标注。填补了之前manipulation动态场景中6D物体姿态估计数据集的空白。

开源项目

以下是新开源代码相关的论文、视频、代码、作者个人主页等信息

论文名称:

se(3)-TrackNet: Data-driven 6D Pose Tracking by Calibrating Image Residuals in Synthetic Domains

论文下载:

https://arxiv.org/pdf/2007.13866.pdf

代码链接:

https://github.com/wenbowen123/iros20-6d-pose-tracking

作者个人主页:

https://www.linkedin.com/in/bowen-wen/

先来看下作者介绍的视频,了解一下该工作的主要内容

IROS 2020 报告:

本文仅做学术分享,如有侵权,请联系删文。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-11-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 3D视觉工坊 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档