本周,《自然》上刊登了一篇科学报告,研究人员发现,机器人可以促进人类语言的产生。
这一报告的意义在于,对语言发育迟缓、词汇检索困难的临床人群、以及需要增强语言生成的教育环境,机器人或许能起到十分重要的作用。
而且,文章揭示的共同表征和语言促进机制可能会被整合到社交机器人的认知架构中,以提高它们在与人类进行口头交流时的沟通技巧。
此前,已有研究证明,在信息处理级别,机器人可以影响人类行为,包括运动、社交、高阶认知方面。
根据文章,本次实验的参与者是36名年龄在 19 至 35 岁之间的德语母语人士,以及机器人Pepper,这是日本软银集团和法国Aldebaran Robotics专为与人类交流而研发的人形机器人,高1.2 米。
机器人的语音和行为通过 NAOqi 框架生成,其中包含在机器人和可视化显示刺激的 Presentation 软件之间进行通信的自定义脚本。
为了突出机器人的自然行为,休息期间,它被设置为响应并关注其环境。在命名任务期间,则会有微妙的手臂和头部运动。
实验开始前,Pepper会作为任务伙伴被介绍给参与者。
实验材料包括 320 张自然或人造物体的照片,分为32 个不同语义类别(如,花卉、建筑物、鸟类)。
实验装置中的认知模型如图A所示,语音生成过程中的词汇访问认知模型解释了概念如何激活心理词汇表中的条目,然后转化为语音。
实验中,一个参与者和机器人Pepper在电脑屏幕前相邻而坐,显示图片,其中一些是语义相关的。
研究人员评估了机器人的言语行为是否被模拟,以及在哪个处理层面(概念与词汇)。
为了排除在与机器人共享命名过程中可能出现的额外语言输入的干扰,参与者和机器人都戴着耳机,这可以掩盖伙伴的命名声。
图片由参与者命名,一半只以视觉方式呈现。在联合命名条件下,某一语义类别中的一半图片(如宠物)由参与者命名,另一半由机器人伙伴命名。对于那些由参与者命名的图片,将计算出1-5的顺序位置。
每个试验都以 0.5 秒的固定交叉展示开始。在参与者命名物体的试验中,图片被呈现直到命名响应被启动或最多 2 秒。从图片展示开始,参与者的命名延迟(反应时间)会被记录下来。
图片连续显示在电脑屏幕上。在单一命名条件下,在一个给定的语义类别中,一半的图片(例如:水果)被参与者命名,另一半的图片仅以视觉方式呈现。水果)的一半被参与者命名,另一半则只以视觉方式呈现。在联合命名条件下,在一个特定的语义类别中,一半的图片(如宠物)由参与者命名,另一半由机器人命名。
实验结果显示:
实验结束时,参与者完成了两个与机器人意图有关的问题:机器人有意采取行动、机器人主动决定何时对刺激做出反应,评判标准从1到11.
当然,此项研究并不是十分完善,比如,还不清楚这种共同表征的确切性质。未来的研究应该包括生理测量,如脑电图,或是针对性的潜在机制。
另外,还应系统地研究机器人的行为、(合成)声音或视觉外观的细节,以及语言交互的强度或机器人属性的加强是会否影响机器人的语言共同表示。
领取专属 10元无门槛券
私享最新 技术干货