前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Facebook最新语言模型XLM-R:多项任务刷新SOTA,超越单语BERT

Facebook最新语言模型XLM-R:多项任务刷新SOTA,超越单语BERT

作者头像
新智元
发布于 2019-11-12 14:46:25
发布于 2019-11-12 14:46:25
1.1K0
举报
文章被收录于专栏:新智元新智元


新智元报道

来源:Facebook AI

编辑:肖琴

【新智元导读】Facebook AI最新推出一个名为XLM-R的新模型,使用100种语言、2.5 TB文本数据进行训练,在多项跨语言理解基准测试中取得了SOTA的结果,并超越了单语言的BERT模型。代码已开源,来新智元 AI 朋友圈获取吧~

Facebook AI近日发布一个名为XLM-R的新模型,使用100种语言、2.5 TB文本数据进行训练,在四项跨语言理解基准测试中取得了迄今最好的结果

Yann LeCun在Twitter上赞赏该研究

XLM-R使用自我监督(self-supervised)的训练技术实现了跨语言理解的SOTA性能。在这项任务中,用一种语言对模型进行训练,然后将模型用于其他语言,而不需要额外的训练数据。

XLM-R模型通过合并更多的训练数据和语言(包括缺乏标签的的低资源语言和未标记的数据集),改进了以前的多语言方法。

在论文“Unsupervised Cross-lingual Representation Learning at Scale”中,研究人员全面分析了无监督多语言掩码语言模型的能力和限制,特别是研究了高资源/低资源和传输/干扰的权衡,并揭示了所谓的“多语言的诅咒”。

XLM-R在四个跨语言理解基准测试中取得了迄今为止最好的结果,在XNLI跨语言自然语言推理数据集上的平均准确率提高了4.7%,在最近推出的MLQA问题回答数据集上的平均F1得分提高了8.4%,在NER数据集上的平均F1得分提高了2.1%。

经过大量的实验和消融研究,研究人员证明了XLM-R是第一个优于依赖预训练模型的传统单语言基线模型的多语言模型。具体而言,多语言模型通过在微调时利用多语言的训练集,可以超越单语言的BERT模型。

这项研究的代码和模型已经开源,点击进入新智元小程序获取:

接下来带来这项研究的主要方法和结果。

XLM-R身手不凡:多项任务刷新SOTA,超越单语BERT

尽管该领域的早期工作已经证明了多语言掩码语言模型(multilingual masked language models)在跨语言理解方面的有效性,但是诸如XLM和multilingual BERT这样的模型在学习低资源语言的有用表示方面仍然能力有限。XLM-R在以下几个方面改进了以前的方法:

  • 在XLM和RoBERTa中使用的跨语言方法的基础上,我们增加了新模型的语言数量和训练示例的数量,用超过2TB的已经过清理和过滤的CommonCrawl 数据以自我监督的方式训练跨语言表示。这包括为低资源语言生成新的未标记语料库,并将用于这些语言的训练数据量扩大两个数量级。

用于XLM-100的Wiki-100语料库和用于XLM-R的CC-100语料库中出现的88种语言的GiB (log-scale)数据量。CC-100将数据量增加了几个数量级,特别是对于低资源语言而言。

  • 在fine-tuning期间,我们利用多语言模型的能力来使用多种语言的标记数据,以改进下游任务的性能。这使我们的模型能够在跨语言基准测试中获得state-of-the-art的结果,同时超过了单语言BERT模型在每种语言上的性能。
  • 我们调整了模型的参数,以抵消以下不利因素:使用跨语言迁移来将模型扩展到更多的语言时限制了模型理解每种语言的能力。我们的参数更改包括在训练和词汇构建过程中对低资源语言进行上采样,生成更大的共享词汇表,以及将整体模型容量增加到5.5亿参数。

我们发现XLM-R在低资源语言上表现得特别出色,与以前使用15种语言进行训练的最优技术相比,XLM-R 模型在斯瓦希里语和乌尔都语上的XNLI性能分别提高了2.3%和5%。

跨语言理解结果

跨语言分类结果

我们报告了15种XNLI语言的准确性和平均准确性,证明使用translate-train-all的方法,利用了多种语言的训练集,XLM-R在XNLI上获得了82.4%的平均准确率,而且也优于以前的跨语言迁移方法

命名实体识别结果

命名实体识别的结果。

问题回答结果

MLQA问题回答的结果。

我们报告了F1和EM(精确匹配)的zero-shot分类得分,其中模型在英语数据集上进行了微调,并在MLQA的7种语言上进行了评估。†的结果取自原始MLQA论文。

GLUE基准结果

GLUE dev结果。†的结果来自 Liu et al. (2019)。我们比较了XLMR与BERT-Large、XLNet和Roberta在英语GLUE benchmark上的性能。

多语言模型vs单语言模型

多语言模型vs单语言模型(BERT-BASE)。我们使用一个基于BERT的结构,比较了在七种语言上单语模型(BERT)和多语模型(XLM)的性能。

总结而言,XLM-R在分类、序列标记和问题回答等方面都优于mBERT和XLM等多语言模型。我们揭示了多语言MLM的局限性,特别是揭示了高资源与低资源的权衡、多语言的诅咒和关键超参数的重要性。我们还展示了多语言模型相对于单语言模型的惊人有效性,并展示了对低资源语言的强大改进。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-11-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
7 papers|EMNLP 2019最佳论文;Facebook语言模型XLM-R取得SOTA结果;最优学习的85%规则
论文 1:Specializing Word Embeddings(for Parsing)by Information Bottleneck
机器之心
2019/11/12
8020
7 papers|EMNLP 2019最佳论文;Facebook语言模型XLM-R取得SOTA结果;最优学习的85%规则
40种语言、9项推理任务,谷歌发布新的NLP基准测试XTREME
全世界约有6900种语言,但大多数并没有英语这种数据规模,这也导致大多数的NLP基准仅限于英文任务,这大大制约了自然语言处理的多语言发展。
AI科技评论
2020/04/20
1.1K0
40种语言、9项推理任务,谷歌发布新的NLP基准测试XTREME
覆盖40种语言:谷歌发布多语言、多任务NLP新基准XTREME
近日,来自 CMU、谷歌研究院和 DeepMind 的科学家们提出了覆盖四十种语言的大规模多语言多任务基准 XTREME,希望一举解决这个问题。
机器之心
2020/04/16
1.2K0
XLM-RoBERTa: 一种多语言预训练模型
Wisdom in the mind is better than money in the hand.
zenRRan
2020/07/28
3K0
EMNLP 2021 | 百度:多语言预训练模型ERNIE-M
2021年伊始,百度发布多语言预训练模型ERNIE-M,通过对96门语言的学习,使得一个模型能同时理解96种语言,该项技术在5类典型跨语言理解任务上刷新世界最好效果。在权威跨语言理解榜单XTREME上,ERNIE-M也登顶榜首,超越微软、谷歌、Facebook等机构提出的模型。(但是现在降到了第7名)
NewBeeNLP
2021/12/17
1.2K0
EMNLP 2021 | 百度:多语言预训练模型ERNIE-M
单语言表征如何迁移到多语言去?
论文:On the Cross-lingualTransferability of Monolingual Representations
AI科技评论
2019/11/26
5540
百倍训练效率提升,微软通用语言表示模型T-ULRv5登顶XTREME
机器之心报道 编辑:陈萍、蛋酱 微软打造的图灵通用语言表示模型 T-ULRv5,登顶 Google XTREME 公共排行榜。 刚刚,微软打造的最新图灵通用语言表示模型 T-ULRv5 模型再次成为 SOTA 模型,并在 Google XTREME 公共排行榜上位列榜首。 这项研究由 Microsoft Turing 团队和 Microsoft Research 合作完成,T-ULRv5 XL 模型具有 22 亿参数,以 1.7 分的平均分优于当前性能第二的模型(VECO)。这也是该系列模型在排行榜上的四个
机器之心
2023/03/29
2660
百倍训练效率提升,微软通用语言表示模型T-ULRv5登顶XTREME
【论文】哈工大SCIR Lab | EMNLP 2019 基于BERT的跨语言
论文名称:Cross-Lingual BERT Transformation for Zero-Shot Dependency Parsing
zenRRan
2019/12/06
1.1K0
想在PyTorch里训练BERT,请试试Facebook跨语言模型XLM
今年2月,Facebook发表了论文《Cross-lingual Language Model Pretraining》,这篇论文提出了基于BERT优化的跨语言模型XLM,它刚刚出生就在两项机器翻译任务上取得了巨大进步。
量子位
2019/06/28
8480
想在PyTorch里训练BERT,请试试Facebook跨语言模型XLM
Facebook最新论文:跨语言模型预训练,三大任务刷新最高性能
最近的研究已经证明,生成式预训练对于英语自然语言理解很有效。但该领域的研究基本上都是单语的,主要集中在英语。
新智元
2019/05/08
8910
Facebook最新论文:跨语言模型预训练,三大任务刷新最高性能
谷歌提出多语言BERT模型:可为109种语言生成与语言无关的跨语言句子嵌入
近日,谷歌AI研究人员提出了一种称为LaBSE的多语言BERT嵌入模型,该模型可为109种语言生成与语言无关的跨语言句子嵌入。
新智元
2020/08/28
2.7K0
谷歌提出多语言BERT模型:可为109种语言生成与语言无关的跨语言句子嵌入
关于跨语种语言模型的讨论
最近,一个预先训练的模型被证明可以改善下游问题。Lample和Conneau提出了两个新的培训目标来培训跨语言语言模型(XLM)。这种方法可以实现跨语言自然语言推理(XNLI)的最新成果。另一方面,wada和iwata提出了另一种无需并行数据学习跨语言文本表示的方法。他们将其命名为多语言神经语言模型。
AiTechYun
2019/08/06
1.3K0
关于跨语种语言模型的讨论
跨语言版BERT:Facebook提出跨语言预训练模型XLM
项目地址:https://github.com/facebookresearch/XLM
机器之心
2019/04/30
1.6K0
跨语言版BERT:Facebook提出跨语言预训练模型XLM
ICLR 2022 | 减少跨语言表示差异,字节跳动AI Lab通过流形混合增强跨语言迁移
机器之心发布 字节跳动人工智能实验室、加利福尼亚大学圣塔芭芭拉分校 字节跳动人工智能实验室和加利福尼亚大学圣塔芭芭拉分校的研究者提出了跨语言流形混合(X-Mixup)方法为目标语言提供 “折衷” 的表示,让模型自适应地校准表示差异。此方法不仅显著地减少了跨语言表示差异,同时有效地提升了跨语言迁移的效果。 基于多语言预训练语言模型(比如 mBert、XLM-R 等),各种跨语言迁移学习方法取得了不错的迁移效果,但其中许多目标语言的性能仍然远远落后于源语言。字节跳动人工智能实验室和加利福尼亚大学圣塔芭芭拉分校通
机器之心
2022/05/30
6050
ICLR 2022 | 减少跨语言表示差异,字节跳动AI Lab通过流形混合增强跨语言迁移
谷歌最强NLP模型BERT官方中文版来了!多语言模型支持100种语言
上周,谷歌AI团队开源了备受关注的“最强NLP模型”BERT的TensorFlow代码和预训练模型,不到一天时间,收获3000多星!
新智元
2018/12/07
4.4K0
40种语言、9项推理任务,谷歌发布新的NLP基准测试Xtreme
目前,全球存在着超过6900种语言,这是自然语言处理研究者们的巨大噩梦。因为大多数语言都是数据稀疏的,研究者找不到足够多的数据来单独训练成熟模型。
大数据文摘
2020/04/16
7220
40种语言、9项推理任务,谷歌发布新的NLP基准测试Xtreme
Transformer 架构—Encoder-Decoder
最初的Transformer是基于广泛应用在机器翻译领域的Encoder-Decoder架构:
JOYCE_Leo16
2024/03/19
1.1K0
Transformer 架构—Encoder-Decoder
【源头活水】mBART:多语言翻译预训练模型
“问渠那得清如许,为有源头活水来”,通过前沿领域知识的学习,从其他研究领域得到启发,对研究问题的本质有更清晰的认识和理解,是自我提高的不竭源泉。为此,我们特别精选论文阅读笔记,开辟“源头活水”专栏,帮助你广泛而深入的阅读科研文献,敬请关注。
马上科普尚尚
2021/04/30
4.6K0
【源头活水】mBART:多语言翻译预训练模型
XLM,基于BERT的跨语言模型
这个模型在跨语言分类任务(15个语言的句子蕴含任务)上比其他模型取得了更好的效果,并且显著提升了有预训练的机器翻译效果。
AI科技评论
2019/08/23
1.8K0
三种Cross-lingual模型 (XLM, XLM-R, mBART)详解
本文将详述三种Cross-lingual模型,按照其在Arxiv上发表论文的时间,分别是XLM(2019/1/22)、XLM-R(2019/11/5)、mBART(2020/1/22),有意思的是这三篇文章均出自FaceBook,他们是不是对跨语言模型有什么执念?
mathor
2020/11/04
10.5K0
三种Cross-lingual模型 (XLM, XLM-R, mBART)详解
推荐阅读
相关推荐
7 papers|EMNLP 2019最佳论文;Facebook语言模型XLM-R取得SOTA结果;最优学习的85%规则
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档