前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >一种全新易用的基于Word-Word关系的NER统一模型,刷新了14种数据集并达到新SoTA

一种全新易用的基于Word-Word关系的NER统一模型,刷新了14种数据集并达到新SoTA

作者头像
zenRRan
发布2022-02-28 11:30:56
9250
发布2022-02-28 11:30:56
举报
文章被收录于专栏:深度学习自然语言处理

论文:Unified Named Entity Recognition as Word-Word Relation Classification

链接:https://arxiv.org/pdf/2112.10070.pdf

收录:AAAI2022

总体说一下

NER任务大概分为三种:flat, overlapped, and discontinuous NER,如下图所示:

  • aching in legs 为flat NER
  • aching in shoulders为discontinuous NER
  • aching in legs和aching in shoulders这两个实体共同重复了aching in,为overlapped NER

最近的研究都在考虑如何通过一个大一统模型一次性解决这三种问题。目前的最佳的方法基本都是基于span-based和seq2seq的,然而span-based方法主要倾向于通过枚举所有span组合来解决边界问题,时间复杂度上是个问题;而后者大家都知道,存在错误传播。

所以,本文提出了一种新颖的方式和框架来解决所有的NER问题:通过预测word-word之间的关系(这里称之为W2NER)。其中word与word之间的关系主要有三种:

  • NNW: Next-Neighboring-Word,预测与后面词的关系
  • THW-*: Tail-Head-Word-* ,预测与前面词的关系,其中*表示具体关系(ORG、PER等)
  • NONE:表示没有关系

其中,本文采用一个多粒度2D图来表示word之间的关系,如下图,其中为了解决图的稀疏性,而将这两种关系放到一个图里,一个在右上角,一个在左下角。

最终在14个公开数据集(包含中文和英文)上做了大量实验,并都取得了最佳值,也成为了最新的SoTA

模型

一下子看,感觉模型想是一堆模块堆积而成,其实细读论文会发现这些模型都是由NER的前人经验而来,有理有据。

具体来看,大概分为三个模块:

Encoder Layer

通过BERT获取表示信息,然后通过LSTM获取上下文信息。

Convolution Layer

这里有一个CLN(Conditional Layer Normalization)层,主要用来获得word j在word i前提下的表示:

然后是BERT-Style Grid Representation层,这里主要是模型BERT的3个embedding层而来,这里的三个表示层为信息表示、关系位置信息表示和位置域表示组成,通过MLP融合到一起。

然后通过多粒度的空洞卷积(Multi-Granularity Dilated Convolution)采样不同的信息。

Co-Predictor Layer

这里用了一个普通的MLP和一个专门用于变长标签预测的biaffine预测:

最后过一个softmax层:

最后是一个Decoder层,这里主要就是通过NNW和HTW-*构成一个环的部分就是一个实体,比如下面这个例子就解释了所有情况:

损失的话,就简单了:

实验

英文flat数据集:

中文flat数据集:

英文overlapped数据集:

中文overlapped数据集,F1性能:

英文discontinuous数据集:

和前沿最佳论文作对比:

消融实验,F1性能:

训练速度和推理速度都得到了极大提升:

这篇文章还是非常不错的,是一个简单有效的NER新框架,可以较为轻松的应用于线下。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-02-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 总体说一下
  • 模型
  • 实验
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档