大数据文摘作品
作者:小鱼
百度研究院(Baidu Research)的博客刚刚更新发布了一篇关于自然语言处理的新论文,在利用交互进行自然语言学习上,提出了一些有趣的新观点,来和文摘菌一起来看看这篇论文的主要内容。
本文提出了一种基于交互式的自然语言学习的方法,其中,学习者通过与人类交互并从反馈中学习自然语言,从而在参与对话的过程中学习和提高语言技能。
与监督学习环境的条件有所不同,本文中没有对模型(学习者)进行有标签的直接监督学习训练。相反,学习者为了学习说话,必须先能说话,并且人类将提供自然语言(例如,是/否)和非语言(例如,点头/微笑)反馈。
通过对话交流,AI可以可以询问问题来积极获取信息,并在随后的对话中,使用刚才学到的知识。
下图展示了训练期间,几种不同形式的示例对话。
最初,学习者给出毫无意义的句子,但通过这种单一的互动对话逐渐提高了学习者的对话技能。最后,学习者可以用自然语言正确回答问题。
此外,模型的泛化能力进一步证明了模型的语言学习能力。也就是,在之前从未出现在问题中的概念,通过被询问对象的描述,模型可以通过一些已知观点或者概念的组合来回答。
例如,在训练期间,从未进行过组合的问答训练。被询问的“老师”只是描述了“对象是橙色”,但从未对模型进行提问。在测试过程中,模型在回答有关“鳄梨”问题时,既可以回答“正东”方向的水果是“鳄梨”,也可以回答“鳄梨”是“橙色”的问题,如上图所示。
本文的目标之一是增加语言学习环境的复杂性以培养更复杂的语言行为。另一个目标是探索知识建模和快速学习,使模型能够与人类互动并有效地向现实世界学习。
相关报道:
http://research.baidu.com/Blog/index-view?id=96
https://arxiv.org/pdf/1705.09906.pdf
【今日机器学习概念】
Have a Great Definition
领取专属 10元无门槛券
私享最新 技术干货