Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >【腾讯知文】任务型对话之语言理解

【腾讯知文】任务型对话之语言理解

作者头像
腾讯知文实验室
发布于 2018-06-13 09:22:33
发布于 2018-06-13 09:22:33
13K1
举报

| 导语 近年来比较热门的任务型对话的研究主要集中在端到端的框架的研究,基本跟传统任务型算法框架——语言理解模块(Spoken Language Understanding,对话管理模块(Dialogue Management),自然语言生成模块(Natural Language Generation)有较大的差别。其中一些这类模型本质上实际为一些sequence-to-sequence结合知识库的架构,如Manning 2017年的两篇也是Encoder-Decoder的模型。不过,这类模型对数据标注要求很高(可以参见Stanford Dialog Dataset的标注),仍然处在探索阶段,业界上真正实用性较强依旧以传统的算法框架为主。本篇文章也是着重介绍传统算法框架中的语言理解模块,着重于语言理解模块中的意图与槽位的联合模型。

本文的主要目录结构

首先会回顾一下任务型导向对话的要点,包括概念以及实例(Ideepwise与阿里小蜜等);其次从任务型的语义表示说起到整体的对话框架也包括一些实例;最后也是本文的重点,我们将介绍传统算法框架中语言理解模块的意图与槽位的联合模型。

1.什么是任务型?

任务型的概念

对象

任务型导向的对话指特定条件下提供信息或服务的对话。通常情况下是为了满足带有明确目的的用户。

具体场景与功能

例如查流量,查话费,订餐,订票,咨询等任务型场景。由 于用户的需求较为复杂,通常情况下需分多轮陈述,用户也可能在对话过程中不断修改与完善自己的需求,任务型机器人需要通过询问、澄清和确认来帮助用户明确目的。

任务评价

首先要有解决问题的明确目标,评价指标较重要的一点为,轮次尽可能少,尽量直逼答案 ,如果答非所问严重影响用户使用。

任务型与闲聊对比

Ideepwise产品:

阿里小蜜产品:

从上面可以看出任务型导向的对话目的十分明确,关键是获取意图与约束条件(槽位)以及对话状态的追踪。

任务型导向对话在大家族中的位置

这里的分类是这样分的:首先将对话分为问答与会话,在问答中按照文档是否结构化分为无结构化文档与结构化文档。无结构化文档中包含一些如IR信息检索(如QA对,查找文档的问题),IE信息抽取(如阅读理解,查找文档中的精确片段),这一块的难点在于相似性的计算。结构化文档中包含数据库知识图谱等,他们的输入为结构化的片段,数据库具有查询的功能,知识图谱具有查询与推理的能力,这一块的难点其实也是如何获取自然语言中的约束条件(槽位)的问题。接下来重点看下会话,会话划为为闲聊型,任务型等,传统的任务型分为语言理解模块(SLU),对话管理模块(DM)以及自然语言生成模块(NLG)等。后续的介绍主要针对SLU模块中的联合模型的一个介绍。

语义的表示方法是自然语言领域的难点,这对于任务导向的对话来说也是如此......

2.任务型中的语义表示

自然语言如何解析成合适的语义表示一直是一个难题。下面主要介绍三种相关的语义表示方法。

1. 分布语义表示

(Distributional semantics)

主要包括词level与句子level。词level上主要有:Word2Vector, GloVe, ELMo, FastText...等句子level主要有Skip-Thoughts, Quick-Thoughts, InferSent...等分布式表示

2. 框架语义表示

(Frame semantics)

主要包括三元组的形式,Action(slot,value),例如查询币种,Inform(货币=人民币,...)

3. 模型论语义表示

(Model-theoretic semantics)

这是十分有趣的一种表示方式,参见Paul Gochet著作《Philosophical Perspectives for Pragmatics》。

例如一些词表示成两个集合的运算              

传统的任务型算法框架上一篇文章介绍过,这里祭上图回顾一下:

我们这里以一个例子开始语言理解模块的拓展

对于一段对话我们需要通过语言理解模块对它进行解析,包括领域的识别如是航空还是酒店,以及每个片段的意图,比如是购票还是退票,以及每个具体意图下的约束信息(槽位)。

3.语言理解模块

语言理解模块主要包括意图与槽位的识别。意图的识别实际上是一个分类问题,如基于规则,传统机器学习算法 (SVM),基于深度学习算法(CNN, LSTM, RCNN, C-LSTM, FastText)等。意图在对话中还涉及转换,这里不在说明。Slot识别实际上是一种序列标记的任务,如基于规则 (Phoenix Parser),基于传统机器学习算法 (DBN; SVM),基于深度学习算法(LSTM, Bi-RNN, Bi-LSTM-CRF)。有些人可能不大区别slot与实体的区别,下面以BIO标注举个例子:

如”show flights from Boston to New York today“中对于实体来讲Boston与New York都是标注为city,而对于slot来说区分为出发城市与目的地城市,可以这样说槽位的种类相比与实体更加的多元化。

Joint Model (Intent+Slot)

1.第一篇文章主要利用双向的GRU+CRF作为意图与槽位的联合模型。

Zhang X, Wang H. A Joint Model of Intent Determination and Slot Filling for Spoken Language Understanding[C] IJCAI. 2016

模型如下:

1.  输入为窗口化的词向量:

2.  利用双向GRU模型学习到高维度特征。

3.  意图与槽位

对于意图分类来说,利用每一个学习到的隐藏层特征,采用max pooling槽位得到全句的表达,再采用softmax进行意图的分类:      

对于槽位来说,对每个隐藏层的输入用前向网络到各个标签的概率,并采用CRF对全局打分得到最优的序列。

联合的损失函数为槽位与意图的极大似然

本文的模型简单而且槽位识别的准确率与意图识别的准确率都达到很高的水准,

本文的结果基于ATIS数据集:

Intent :98.32   Slot (F1):96.89

2.第二篇主要采用利用语义分析树构造了路径特征对槽位与意图的识别的联合模型。(RecNN+Viterbi)

Guo D, Tur G, Yih W, et al. Joint semantic utterance classification and slot filling with recursive neural networks[C] 2014 IEEE. IEEE, 2014

先介绍下本文的basic Recursive NN的模型

输入为单个词向量(后续优化输入为窗口的词向量),每个词性被看作为权重向量(weight vector ),这样每个词在其路径的运算为简单的词向量与词性权重向量的点积运算。如上图中的方块为词性的权重向量与输入向量的点积运算后的结果。当一个父节点有多个孩子分支的时候,可以看成每个分支与权重点积的和运算。

意图识别模块

意图识别,该文章中直接采用根节点的输出向量直接做一个分类。

槽位识别

这一模块引入了路径向量的特征  

如”in“这个单词,在语义分析树中的路径为”IN-PP-NP“,将该路径的每个输出向量做一个加权运算得到path的特征,本文采用了三个词的path特征的concat作为tri-path特征进行槽位的分类,从而进行对”in“的一个预测。

优化

文章中还在baseline的基础上做了一些优化:

优化输入为窗口的词向量

节点用与先前简单加权不同的网络,采用了非线性的激活函数

采用基于Viterbi的CRF优化全局,及采用了基于tri-gram的语言模型极大化标注序列

本文的结果基于ATIS数据集:

Intent :95.40    Slot (F1):93.96

3.第三篇主要是基于CNN+Tri-CRF的模型

Xu P, Sarikaya R. Convolutional neural network based triangular crf for joint intent detection and slot filling 2013 IEEE Workshop on. IEEE, 2013                         

看一下篇CNN+TriCRF模型,模型框架如下:

对于槽位识别的模型

输入的为每个的词向量,经过一个卷积层得到高维特征h,随后经过Tri-CRF作为整体的打分。Tri-CRF与线性的CRF的区别是输入前用了一个前向网络得到每个标签的分类。我们来分析一下评分的公式:

上述的t(Yi-1,Yi)为转移的打分,hij为CNN得到的高维特征,每个时刻的高维特征经过一个前向网络得到每个标签的概率,这样前两者的结合就是整体的打分。

对于意图识别

CNN采用同一套参数,得到每个隐藏层的高维特征h,直接采用max pooling得到整句的表达,用softmax得到意图分类。

将上述结合起来实际上就是联合模型。

本文的结果基于ATIS数据集:

Intent :94.09   Slot (F1):95.42

4.第四篇的主要是基于attention-based RNN

Liu B, Lane I. Attention-based recurrent neural network models for joint intent detection and slot filling[J]. 2016.

首先介绍一下context vector的概念,参见Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate[J]. 2014.

上述公式中的g实际上是一个前向的网络得到decoder每个隐藏层与输入序列中每个encoder隐藏层的相关,即attention分量,对encoder每时刻隐藏层的输出与当前时刻的attention的加权即得到文本向量(context vector)

进入正文,本文采用的encoder-decoder模型如下:

槽位

图a隐藏层非对齐attention的模型。decoder隐藏层非对齐的方式,decoder端的每个cell的输入为上一时刻隐藏层s,上一时刻标签的概率s与文本向量c的输入。

图b为隐藏层对齐无attention的模型,decoder端的每个cell的输入为上一时刻隐藏层s,上一时刻标签的概率s与对应的encoder的每个时刻隐藏层的输出。

图c隐藏层对齐attention的模型。decoder端的每个cell的输入为上一时刻隐藏层s,上一时刻标签的概率s,上一时刻标签的概率s与文本向量c的输入与对应的encoder的每个时刻隐藏层的输出。

意图

采用encoder的最后输出加入文本向量作为intent的分类。

该模型基于ATIS数据集(+aligned inputs):

Intent :94.14   Slot (F1):95.62

本文还基于上述的idea得到另外一种基于attention RNN的联合模型

BiRNN 隐藏层的输入为

槽位

BiRNN得到的高维特征与文本向量concat起来作为单层decoderRNN的输入用于槽位识别,需要注意的是encoder的输出概率只作用于BiRNN的正向传输层。

意图

单层decoderRNN的隐藏层的输出的加权得到最后的输出向量,得到最后的意图分类

该模型基于ATIS数据集(+aligned inputs):

Intent :94.40 Slot (F1):95.78

5.第五篇主要是在线意图与槽位,语言的联合模型(Online-RNN-LU)。上述四种联合模型之所以不是在线处理,主要一点是都是以整个句子为单位做解析,不能做到实时的解析。本文的亮点就是实时解析,对输入到当前为止的时刻T得到最优意图与槽位的解析以及一个词语的预测。

Liu B, Lane I. Joint online spoken language understanding and language modeling with recurrent neural networks[J]. 2016.

上图表示当前到时刻T的一个解析:

意图

w为T时刻前(包括T)的词语序列,c为T时刻前的意图,s为T时刻前的槽位序列,根据上述三者作为当前时刻T的RNN的输入,RNN隐藏层的输出,通过不同的MLP层分别作为当前时刻T意图与槽位的分类,同时该隐藏层的输出concat意图与槽位的信息输入MLP层得到下一个词的预测。

实际如下操作,采用LSTM,输入为上一时刻的词语序列,意图与槽位信息。其中公式中的IntentDist,SlotLabelDist,WordDist为MLP层。

训练的方法即上述三个模块的极大似然

值的注意的是本文由于在线的算法,采用了greedy的思想,基于先前的意图与槽位达到当前的最优。

上述几种模型在ATIS上的评分

4.总结

上述的模型主要以深度学习的方法解决了传统任务算法框架中较为重要的意图与槽位的识别,这些模型都能应用到实际中一个相关的任务型领域(本人使用过LSTM+CRF的方法实现项目中汇率的槽位提取)。如何使用对话管理模块结合该语言理解模块解决多轮对话的问题一直是一个较为头疼的难题,尽管在传统算法框架上提出了一些例如传统模型或者强化学习的方法,但数据的规范性,对话过程不流畅,死板等严重影响用户在任务型对话的体验。最近较为热闹的Task-Oriented 主要是基于sequence-to-sequence的模型结合知识库,产生了一些意想不到的惊喜,下一篇主要介绍这类模型。

Reference:

[1] Zhang X, Wang H. A Joint Model of Intent Determination and Slot Filling for Spoken Language Understanding[C] IJCAI. 2016

[2] Guo D, Tur G, Yih W, et al. Joint semantic utterance classification and slot filling with recursive neural networks[C] 2014 IEEE. IEEE, 2014

[3] Xu P, Sarikaya R. Convolutional neural network based triangular crf for joint intent detection and slot filling 2013 IEEE Workshop on. IEEE, 2013

[4] Liu B, Lane I. Attention-based recurrent neural network models for joint intent detection and slot filling[J]. 2016.

[5] Bahdanau D, Cho K, Bengio Y. Neural machine translation by jointly learning to align and translate[J]. 2014.

[6] Liu B, Lane I. Joint online spoken language understanding and language modeling with recurrent neural networks[J]. 2016. 

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-06-13,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯知文 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
1 条评论
热度
最新
您好,我设置 bufferType 为 TRTCVideoBufferType_NSData 时,传入的data无法被解析。提示 [E][TRTCCloud.mm, sendCustomVideoData, 6506]:input video pixel format error!! 0. Only NV12 I420 32BGRA format is supported。我的data数据由 CMSampleBufferRef 转换来的。请问以什么转换方式来进行data才能被解析呢,我找了好久没看到有相关的说明。
您好,我设置 bufferType 为 TRTCVideoBufferType_NSData 时,传入的data无法被解析。提示 [E][TRTCCloud.mm, sendCustomVideoData, 6506]:input video pixel format error!! 0. Only NV12 I420 32BGRA format is supported。我的data数据由 CMSampleBufferRef 转换来的。请问以什么转换方式来进行data才能被解析呢,我找了好久没看到有相关的说明。
回复回复点赞举报
推荐阅读
编辑精选文章
换一批
任务式对话中的自然语言理解
导读:随着人工智能技术的发展,智能对话的应用场景越来越多,目前已经成为了研究的热点。天猫精灵,小度小度,腾讯叮当,这些智能助手都是智能对话在业界的应用。智能助手的对话方式可分为三种:任务式对话 ( 用户输入指令,智能助手执行指令任务 ),问答式对话 ( 用户输入问题,智能助手回复答案 ),闲聊式对话。那么智能助手如何理解用户的指令,最终完成指令任务呢?任务型语音对话的处理流程主要包括:语音识别,自然语言理解,对话管理、对话生成,语音合成 ( 图1 )。要理解用户的指令,就需要对用户输入进行自然语言理解,也就是对转换为文本的用户输入进行分析,得到用户的意图和关键信息。在图1中,这一部分由绿色虚线圈出,主要包括领域 ( domain )、意图 ( intent ) 和槽 ( slot ) 的预测。本文主要介绍这一部分,即领域识别、意图识别和槽抽取的主流方法和研究进展。
NewBeeNLP
2020/10/21
1.1K0
哈工大SCIR Lab | EMNLP 2019 结合单词级别意图识别的stack-propagation框架进行口语理解
论文名称:A Stack-Propagation Framework with Token-Level Intent Detection for Spoken Language Understanding 论文作者:覃立波,车万翔,李扬名,文灏洋,刘挺 原创作者:覃立波 下载链接:https://arxiv.org/abs/1909.02188 出处:哈工大SCIR
zenRRan
2019/10/14
8310
哈工大SCIR Lab | EMNLP 2019 结合单词级别意图识别的stack-propagation框架进行口语理解
【腾讯知文】任务型对话机器人简介
1 什么是任务型机器人 任务型机器人指特定条件下提供信息或服务的机器人。通常情况下是为了满足带有明确目的的用户,例如查流量,查话费,订餐,订票,咨询等任务型场景。由于用户的需求较为复杂,通常情况下需分多轮互动,用户也可能在对话过程中不断修改与完善自己的需求,任务型机器人需要通过询问、澄清和确认来帮助用户明确目的。 2 任务型机器人的组成 任务型机器人核心模块主要包括三部分: 1. 自然语言理解模块—— Language Understanding 2. 对话管理模块——
腾讯知文实验室
2018/06/08
5.5K3
NER的过去、现在和未来综述-过去
命名实体识别(NER, Named Entity Recognition),是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等。
百川AI
2021/10/25
2K0
NER的过去、现在和未来综述-过去
“你什么意思”之基于RNN的语义槽填充(Pytorch实现)
1. 概况 1.1 任务 口语理解(Spoken Language Understanding, SLU)作为语音识别与自然语言处理之间的一个新兴领域,其目的是为了让计算机从用户的讲话中理解他们的意图
llhthinker
2018/05/28
3.1K0
博客 | 关于SLU(意图识别、槽填充、上下文LU、结构化LU)和NLG的论文汇总
不少人通过知乎或微信给我要论文的链接,统一发一下吧,后续还有DST、DPL、迁移学习在对话系统的应用、强化学习在对话系统的应用、memory network在对话系统的应用、GAN在对话系统的应用等论文,整理后发出来,感兴趣的可以期待一下。
AI研习社
2018/12/21
1.9K0
博客 | 关于SLU(意图识别、槽填充、上下文LU、结构化LU)和NLG的论文汇总
ACL 2019对话系统论文综述,一文带你纵览16篇前沿研究
这次会议共接收到投稿 2905 篇,比 2018 的 1544 近乎翻倍,接收文章数为 660 篇,接收率为 22.7%,与 2018 年的 24.9%,2017 年的 23.3% 差别不大。
机器之心
2019/08/20
1.8K0
博客 | 常见32项NLP任务及其评价指标和对应达到SOTA的paper
对于初学NLP的人,了解NLP的各项技术非常重要;对于想进阶的人,了解各项技术的评测指标、数据集很重要;对于想做学术和研究的人,了解各项技术在对应的评测数据集上达到SOTA效果的Paper非常重要,因为了解评测数据集、评测指标和目前最好的结果是NLP研究工作的基础。因此,本文整理了常见的32项NLP任务以及对应的评测数据、评测指标、目前的SOTA结果以及对应的Paper。
AI研习社
2019/05/08
4.7K0
博客 | 常见32项NLP任务及其评价指标和对应达到SOTA的paper
赠书 | 从语言学到深度学习NLP,一文概述自然语言理解模块
每天给你送来NLP技术干货! ---- 自然语言理解模块是对话系统中最重要的模块,对于用户输入的语句信息,首先需要通过自然语言理解模块进行处理,该模块主要的功能在于解析并“理解”用户输入的信息,将其转变成计算机可以理解的形式。该过程也可以看作一个信息结构化的过程,用户的输入信息一般表示为如下格式:       如图1所示即为一个用户输入语句经过结构化后的示例,该示例中的意图是希望用户提供手机号码信息,因此“act”为“request”,且当前询问的“slot”为电话信息“phone”,同时“slot”为
zenRRan
2022/08/31
7750
赠书 | 从语言学到深度学习NLP,一文概述自然语言理解模块
阿里智能对话交互实践与创新
本文来源「中国人工智能学会通讯」第11期,感谢作者授权转载。 作者 | 孙健,李永彬,陈海青,邱明辉 过去 20 多年,互联网及移动互联网将人类带到了一个全新的时代,如果用一个词来总结和概括这个时代的话,「连接」这个词再合适不过。这个时代主要建立了四种连接:第一,人和商品的连接;第二,人和人的连接;第三,人和信息的连接;第四,人和设备的连接。 「连接」本身不是目的,它只是为「交互」建立了通道。在人机交互(Human-Computer Interaction)中,人通过输入设备给机器输入相关信号,这些信号包括
用户1737318
2018/06/05
1.7K0
【多轮对话】多轮对话状态追踪技术综述
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:任务型多轮对话数据集和采集方法
百川AI
2022/02/28
4.6K3
【多轮对话】多轮对话状态追踪技术综述
【多轮对话】多轮对话状态追踪综述
研究任务型对话系统,首先得从数据集采集说起,关于数据之前文章介绍过了,这里就不详细介绍了,参考:
百川AI
2024/04/09
5710
【多轮对话】多轮对话状态追踪综述
博客 | 一文看懂任务型对话中的对话策略学习(DPL)
前面写了对话系统中的SLU之领域分类和意图识别、槽填充、上下文LU和结构化LU、对话状态追踪(DST)、以及NLG,今天更新任务型对话系统中的DPL。DPL也叫DPO(对话策略优化),跟DST一样,DPL也是对话管理(DM)的一部分,而DM是任务型对话中至关重要的一部分。说个非严格的对比:如果把对话系统比作计算机的话,SLU相当于输入,NLG相当于输出设备,而DM相当于CPU(运算器+控制器)。
AI研习社
2019/05/08
4.9K0
博客 | 一文看懂任务型对话中的对话策略学习(DPL)
ICASSP 2018 | 思必驰和上交大提出口语语义理解新方法:基于对抗多任务学习的半监督训练
机器之心专栏 作者:Ouyu Lan, Su Zhu, Kai Yu 为期 5 天 ICASSP 2018,已于当地时间 4 月 20 日在加拿大卡尔加里(Calgary)正式落下帷幕。ICASSP 全称 International Conference on Acoustics, Speech and Signal Processing(国际声学、语音与信号处理会议),是由 IEEE 主办的全世界最大的,也是最全面的信号处理及其应用方面的顶级学术会议。今年 ICASSP 的大会主题是「Signal Pro
机器之心
2018/05/08
7840
ICASSP 2018 | 思必驰和上交大提出口语语义理解新方法:基于对抗多任务学习的半监督训练
一文看懂人机对话
人机对话(Human-Machine Conversation)是指让机器理解和运用自然语言实现人机通信的技术,如图1所示。通过人机对话交互,用户可以查询信息,如示例中的第一轮对话,用户查询天气信息;用户也可以和机器进行聊天,如示例中的第二轮对话;用户还可以获取特定服务,如示例中的最后两轮对话,用户获取电影票预定服务。
用户1386409
2019/06/10
1.4K0
一文看懂人机对话
A Survey on Dialogue Systems: Recent Advances and New Frontiers 论文笔记
对话系统受到越来越多人的关注, 深度学习的兴起也带动了一系列研究的发展, 深度学习能够利用大量的数据和少量的人工处理来学习有意义的特征表达以及回答的生成策略, 该文章将现有的对话系统划分成了面向任务的模型和非面向任务的模型, 给出了现有各个研究观点以及可能的研究方向, 介绍了深度学习如何在典型的算法中发挥作用
Mezereon
2018/09/13
9360
A Survey on Dialogue Systems: Recent Advances and New Frontiers 论文笔记
干货 | 上百个业务场景,语义匹配技术在携程智能客服中的应用
随着AI技术在各个领域的广泛应用,人机交互技术愈发成熟。包括电商、银行、电信等在内的很多领域开始建设智能客服的交互能力,为客人提供智能化自助服务,同时为客服人员的工作提供智能辅助。携程集团依靠强大的客服团队为国内外旅行者的出行提供了优质的服务保障,持续提升智能客服的交互能力,提高客服人员的生产效率显得尤为重要。
携程技术
2021/12/31
1.3K0
干货 | 上百个业务场景,语义匹配技术在携程智能客服中的应用
深度学习中的注意力机制(一)
目前深度学习中热点之一就是注意力机制(Attention Mechanisms)。Attention源于人类视觉系统,当人类观察外界事物的时候,一般不会把事物当成一个整体去看,往往倾向于根据需要选择性的去获取被观察事物的某些重要部分,比如我们看到一个人时,往往先Attend到这个人的脸,然后再把不同区域的信息组合起来,形成一个对被观察事物的整体印象。
AI科技大本营
2020/11/23
1.4K0
深度学习中的注意力机制(一)
【RASA】DIET:Dual Intent and Entity Transformer
最近工作中使用到rasa,其nlu部分有一个rasa自己提出的DIETClassifier框架组建,可用于意图分类与实体识别。今天有空,就来研究下它~
小爷毛毛_卓寿杰
2021/12/07
1.5K0
【RASA】DIET:Dual Intent and Entity Transformer
ACL 2021 | 一文详解美团技术团队7篇精选论文
ACL是计算语言学和自然语言处理领域最重要的顶级国际会议,该会议由国际计算语言学协会组织,每年举办一次。据谷歌学术计算语言学刊物指标显示,ACL影响力位列第一,是CCF-A类推荐会议。美团技术团队共有7篇论文(其中6篇长文,1篇短文)被ACL 2021接收,这些论文是美团技术团队在事件抽取、实体识别、意图识别、新槽位发现、无监督句子表示、语义解析、文档检索等自然语言处理任务上的一些前沿探索及应用。
美团技术团队
2021/08/26
1.1K0
推荐阅读
相关推荐
任务式对话中的自然语言理解
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档