你可能已经看过好莱坞明星的“动作捕捉”套装穿着全身服装,充满传感器,让电脑将它们变成科幻的动物或者未来的人类。如今在普林斯顿的研究人员,利用人工智能来对现有视频中的动物进行行为翻译。他们所研发出来的新工具,可以在几分钟内以高精度自动跟踪数百万帧视频中动物的各个身体部位,而无需添加任何物理标记或标签。详细介绍新技术的论文将发表在2019年1月出版的自然方法杂志上。
当研究人员将该工具与他们实验室开发的其他定量工具相结合时,他们可以通过观察动物身体运动模式来研究他们所谓的“行为语言”。这是一个扩展性很强的工具,原则上可用于任何视频数据。它的工作方式是在几个视频中标记几个点,然后神经网络完成剩下的工作。研究人员提供了一个易于使用的界面,任何人都可以将该工具应用到自己的视频中,而无需任何先前的编程知识。
当被问及该工具是否对大型哺乳动物的效果与大多数初始受试者的苍蝇和老鼠一样好时,研究人员立即制作了一个动态标记的长颈鹿视频,该视频来自肯尼亚Mpala研究中心的现场饲料,普林斯顿是其管理合伙人的实地研究站。以前开发可以跟踪人体运动的AI工具的努力依赖于大量的手动注释数据训练集。这使得软件可以在各种数据上稳健地工作,具有截然不同的背景或照明条件。在研究过程中,研究人员优化了类似的方法来处理在实验室中收集到的数据。
英国皇家兽医学院结构与运动实验室的高级讲师Monica Daley表示,这项工作在神经科学之外也具有巨大的潜力。目前在行为翻译的领域中,最大的挑战就是从视频片段中提取有关动物运动的有意义的信息。要么手动处理视频,需要花费数小时的繁琐工作,要么专注于可以自动化的非常简单和有限的分析。
一旦研究人员拥有运动和行为数据库,团队中的神经科学家就可以与他们背后的神经过程建立联系。这将使研究人员不仅可以更好地了解大脑如何产生行为,而且还要探索依赖计算机解释某人行为的未来诊断和疗法。在过去五年中,神经科学在技术观察和操纵大脑活动方面取得了巨大进步,现在,行为的自动分类为该技术增添了一个重要的补充。普林斯顿正在成为计算神经伦理学萌芽领域的中心枢纽。随着人工智能技术的衍生化,已经开始应用于各个领域之中。
领取专属 10元无门槛券
私享最新 技术干货