在智能手机领域,检测对象,分类图像和识别面部的应用程序并不是什么新鲜事; 他们已经被Google Lens和Snapchat等应用推广,仅举几例。但无处不在无法替代质量,而大多数使用的基础机器学习模型 - 卷积神经网络 - 往往会受到缓慢或不准确的影响。这是硬件限制所迫使的计算权衡。
尽管如此,还是有希望。谷歌的研究人员开发了一种人工智能(AI)模型选择方法,可以实现记录速度和精度。
在一篇新论文(“ MnasNet:平台感知神经架构搜索移动 ”)和博客文章中,该团队描述了一个自动化系统MnasNet,该系统从候选列表中识别理想的神经架构,并结合强化学习来考虑移动速度限制。它在特定设备上执行各种模型 - 谷歌的Pixel,在本研究中 - 测量它们的真实性能,自动选择最好的一组。
“通过这种方式,我们可以直接衡量在现实世界中实现的目标,”研究人员在博客文章中写道,“鉴于每种类型的移动设备都有自己的软件和硬件特性,可能需要不同的架构才能做到在准确性和速度之间进行适合的权衡。“
该系统由三部分组成:(1)循环神经网络驱动的控制器,用于学习和采样模型的架构;(2)培训师,用于构建和训练模型;(3)TensorFlow Lite驱动的推理引擎测量模型的速度。
上图:说明Google系统组件的图表。
图片来源:谷歌
该团队测试了ImageNet上的首选模型,由斯坦福和普林斯顿维护的图像数据库,以及上下文中的公共对象(COCO)对象识别数据集。结果显示,这些模型比最先进的移动模型MobileNetV2快1.5倍,比神经网络搜索系统NASNet快2.4倍。与此同时,在COCO上,Google的模型比MobileNet实现了“更高的准确性和更高的速度”,与SSD300模型相比,计算成本降低了35倍,这是研究人员的基准。
“我们很高兴看到我们的自动化方法可以在多个复杂的移动视觉任务上实现最先进的性能,”该团队写道。“将来,我们计划在搜索空间中加入更多操作和优化,并将其应用于更多移动视觉任务,如语义分割。”
边缘和离线(与云托管相对)AI获得了大量的研究 - 特别是在移动领域。在6月份的2018年全球开发者大会期间,Apple推出了改进版的ML Core,它是iOS上的设备上机器学习框架。在谷歌I / O 2018上,谷歌宣布了ML Kit,这是一个软件开发套件,其中包含的工具可以更轻松地在应用程序中部署自定义TensorFlow Lite模型。
领取专属 10元无门槛券
私享最新 技术干货