使用苹果设备的朋友都知道,苹果的Siri助手的工作方式是接收到用户的命令,然后将收到的语音匿名发送至苹果公司服务器上,经过语音转换成文本,再对用户发出的指令进行解释,并将结果发送至iPhone和iPad上,而这个过程的语音识别工作非常复杂,需要在苹果公司的服务器上完成,因此iPhone系列的设备未必能够胜任。
苹果为Siri考虑离线模式
对于Siri来说,依赖服务器就意味着如果没有网络连接,这款虚拟助手就无法工作,尽管"Hey Siri"仍然会触发该服务,却只能显示离线消息。苹果周四发布的专利申请文件"离线个人助理"显示,这一情况未来可能会发生变化。
对于离线Siri来说,苹果走这条路似乎是相当合理的。在最近发布的iPhone中,A系列处理器包含了神经引擎,该引擎用于执行计算密集型任务,如面部识别身份验证和与拍照相关功能供电,但它也可被用于执行机器学习的任务。
考虑到2018年iPhone版本中使用的第二代神经引擎的强大功能,离线Siri完全有可能利用强大的功能和机器学习能力来执行离线处理。离线模式并不是苹果公司改进Siri的唯一方式,它已经采用了许多不同的概念以使数字助理变得更好。
10月份的一项专利说明了Siri如何通过"声纹"识别特定用户,同时苹果公司也在努力通过个性化响应实现多用户支持。Siri已经完成了一些与识别能力有关的改进,包括地理语音模型——帮助解决区域查询和方言口音问题。消费者更清楚的是在iOS 12中引入了Siri Shortcuts,它允许用户制作他们专属的个人Siri命令。
领取专属 10元无门槛券
私享最新 技术干货