作者 | Nine 整理 | NewBeeNLP
关系抽取目前的算法大概可以分为以下几种:
今天分享的论文是一篇pipeline方法,来自清华和微信ACL2022的工作,《Packed Levitated Marker for Entity and Relation Extraction》,是PURE的升级版,这里我们先简单介绍一下PURE。
PURE中 NER部分 是将文本送入PLM中获取每个token的上下文表征,然后将每个span的start token、end token的上下文表征以及span长度的embedding拼接在一起得到span的表征,然后送进两层前馈神经网络,最后预测entity type。
PURE中的 关系抽取部分 采用了往句子中的subject span和object span的前后插入 “typed marker” 的方式,这个typed marker就是一对标记,
通过这种方式对句子改造以后,将改造后的句子送入PLM,然后将 subject span 和 Object 的start marker 的上下文表征拼接在一起作为span的表征,然后过线性变换和softmax预测这个span的relation type。(后面称为PURE-Full)
这种方式的问题就在于每一个训练和预测样本都只能插入一对subject span和object span,导致计算量很大。
他们提出了一种加速方法,这种加速方式也是本文的主要参考的模型: 将typed marker全部放在句子末尾,然后通过让typed marker与相应的subject span或object span中的头/尾单词共享position embedding,并且利用attention mask矩阵来完成一些限定,typed marker进可以与文本以及当前span pair内的typed marker进行attention, text仅可以与text进行attention 。
这样的话就可以在一个句子中并行处理多对span pairs了,他们提出的这种加速方法提升了关系抽取的速度,但是效果会有一些折扣。(后面成为PURE-Approx.)
接下来就是今天的重点,PL-Marker。主要对NER和RE中span的表征进行改进,在之前的工作中,有三种span表征方式:
本篇论文对span表征的建模采用的是后两种Marker的方式,针对单个span和多个span提出了两种标签打包的策略:
PL-Marker的两种标签打包策略
PL-Marker使用的模型就是PLM,与PURE-Approx类似:
这部分采用的悬浮标记,将所有的可能的实体span的悬浮标记对都放在句子最后面。但是这样就出现了一个问题,因为要遍历句子中所有可能的span,而PLM能处理的句子长度有限。
因此他们提出了Packing的策略,在Packing的时候,考虑到为了更好的分清楚span的边界(更重要的是区分同一个词为开头的span的差别),会将span相近的放在一起,就是将以开头相同的或者相近的放在一个样本中。
对于一个token数量为N的句子
,规定最大的span长度为L,具体步骤如下:
,分别将他们的开始标记的表征
和结束标记的表征
拼接在一起,作为其对应span的表征:
这部分采用固定标记和悬浮标记混用的方式,原因是如果也采用PURE-Approx的那种subject span levitated marker与object span levitated marker都拼接在后面的情况的话,虽然可以用attention mask去把两对marker绑定在一起,但是这样的话,那么它就不太能识别出它同span的另一个marker。具体做法如下:
和
,将Subject span前后的固定标记的表征
和
以及一对object span的悬浮标记的表征
和
拼接在一起,作为这一对span pair的表征:
;
使用embedding of meaningful words的效果
使用了悬浮标记的NER的效果达到了SOTA
因为采用这种拼接的方式,NER的速度一定是不快,所以他们做了这个实验,对比了不同的group下PL-Marker的做NER的速度,比SeqTagger要慢很多,下表中的Two-stage方法是指他们用一个BASE-size T-Concat模型先过滤了以下候选的span,然后才送进PL-Marker的,可以看到,entity的F1没有损失,但速度有了很大
关系抽取的速度的话,他们与PURE和PURE的加速版本进行了对比,速度上,PL-Marker自然是在这两个模型之间,而效果的话,是最好的。
对比了如下的一些方案:
[1]
table sequence: https://arxiv.org/abs/2010.03851
[2]
TPlinker: https://www.aclweb.org/anthology/2020.coling-main.138.pdf
[3]
ETL Span: https://arxiv.org/abs/1909.04273v3
[4]
PRGC: https://arxiv.org/abs/2106.09895
[5]
SPN4RE: https://arxiv.org/abs/2011.01675v1
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有