谷歌公布的新算法可追踪两只手的动作。图据BBC
科技进步给人类生活带来了许多便利,同样给那些有着身体残障的人带来了新生。据BBC报道,谷歌最近公布出了一个新算法,有望让智能手机解读并“大声念出”手语,方便人们交流。谷歌只是提供算法技术,贡献给开发者们,让他们可以用其开发出手机App。
谷歌在手指、手掌和手背上定了21个点。如此,即便手指并在一起或手臂有扭转的时候,AI也能比较容易地理解手势信号,避免迷惑或错漏的产生。目前,这种技术还只能在PC端应用。
这种算法能够解读不同的手势语言。图据BBC
谷歌研究工程师瓦伦丁和张凡称,这一技术是同图像软件公司MediaPipe合作开发的,而免费发表这一技术的目的则是想奠定“理解手语的基础”。
“我们很期待看到人们会就此开发出什么来。就我们的部分来说,我们会继续研究,让这一技术更加强大,能稳定地进行手势追踪,增加能可靠检测的手势数量。”谷歌发言人告诉BBC称。
听力障碍群体的活动家们对这一技术非常欢迎,因为这样可以帮助人们更好的理解他们想要说的话,但也指出,科技可能很难完全精准地解读他们表达的含义。
正如他们指出的,一个单从手势来解读并“翻译”为语音的软件可能会漏掉面部表达、手势速度,以及这些因素会造成的意思表达差异。此外,手语的区域差异性也还没有包括在这个算法内。
而且,软件还需要搭配其他的功能才能更好地服务听力障碍群体。听力丧失行动(Action on Hearing Loss)的技术经理Jesal Vishnuram称,“从一个耳聋的人的角度来考虑,更有用的是开发将文字或语音自动翻译成手语的软件,以此帮助日常对话,降低听力障碍者的孤独和隔绝。”
全球范围内,还有很多创新者们在开发自己版本的类似技术。肯尼亚一位25岁开发者罗伊(Roy Allela)就开发了一双特殊的手套,为他有听力障碍的子女服务,这套手套可将手语信号传给一个安卓APP,再由App将信息念出声。这款手套最近还获得了美国机械工程师协会大奖。
红星新闻记者 蒋伊晋 林容 编译报道
编辑 卢燕飞
领取专属 10元无门槛券
私享最新 技术干货