《科创板日报》2月8日讯(编辑 宋子乔) 还记得那个“眼里有活”的机器人Mobile ALOHA吗?
就在今天,谷歌DeepMind联合斯坦福华人团队展示了Mobile ALOHA 2.0版本(以下简称ALOHA 2)。
与一代相比,ALOHA 2通过打磨硬件(改进了夹持器、重力补偿、框架、相机),具备了更佳的性能(更强的抓握能力、更快的反应速度)、人体工程学设计,稳定性也更好。
也就是说,升级后的ALOHA 2能做的复杂、精细化动作更多了:
抛物
“偷钱”
给玩偶戴隐形眼镜(目前也只敢上手玩偶……)
开牛奶、倒可乐
玩具分类
为什么要优化硬件?其研究团队表示,多样化的演示数据集推动了机器人学习的重大进步,但此类数据的灵活性和规模可能受到硬件成本、硬件鲁棒性和远程操作难易程度的限制。也就是说,更好的硬件能扩展机器人的使用场景,辅助机器人完成更复杂的任务,从而收集更丰富的数据,反哺机器人研究。
为了加速大规模双手操作的研究,ALOHA 2相关的所有硬件设计全部开源,并提供了详细的教程,以及具有系统识别功能的ALOHA 2 MuJoCo模型。
数据一直是机器人研究的致命弱点,模拟和合成数据将在解决机器人灵巧性乃至整个计算机视觉问题上也将发挥关键作用。
MuJoCo模型对于远程操作和模拟学习非常有用。与之前发布的ALOHA模型相比,MuJoCo的物理精度更高、视觉保真度更高,允许快速、直观、可扩展的模拟数据收集。
以下为使用Google Scanned Objects Dataset与MuJoCo模型进行远程操作的示例(1倍速):
(科创板日报 宋子乔)
领取专属 10元无门槛券
私享最新 技术干货