Loading [MathJax]/jax/output/CommonHTML/config.js
前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >延迟基于变压器的编码器中的交互层,实现高效的开放域问题解答

延迟基于变压器的编码器中的交互层,实现高效的开放域问题解答

作者头像
zstt8054929
修改于 2020-12-18 03:12:05
修改于 2020-12-18 03:12:05
4020
举报

维萨姆·西布利尼穆罕默德·查拉尔,夏洛特·帕斯夸尔

大量文件(如维基百科)上的开放领域问题解答(ODQA)是计算机科学中的一个关键挑战。尽管基于变压器的语言模型(如 Bert)在 SQuAD 上展示了在文本小段落中提取答案的能力,但它们在面对更大的搜索空间时,其复杂性很高。解决此问题的最常见方式是添加初步的信息检索步骤,以筛选语料库,并仅保留相关段落。在这篇论文中,我们提出了一个更直接和互补的解决方案,它包括应用基于变压器的模型架构的通用更改,以延缓输入子部分之间的注意,并允许更有效地管理计算。由此产生的变型与采掘任务上的原始型号具有竞争力,并且允许在 ODQA 设置上显著加速,甚至在许多情况下性能提高。

Delaying Interaction Layers in Transformer-based Encoders for Efficient Open Domain Question Answering

Wissam Siblini, Mohamed Challal, Charlotte Pasqual

Open Domain Question Answering (ODQA) on a large-scale corpus of documents (e.g. Wikipedia) is a key challenge in computer science. Although transformer-based language models such as Bert have shown on SQuAD the ability to surpass humans for extracting answers in small passages of text, they suffer from their high complexity when faced to a much larger search space. The most common way to tackle this problem is to add a preliminary Information Retrieval step to heavily filter the corpus and only keep the relevant passages. In this paper, we propose a more direct and complementary solution which consists in applying a generic change in the architecture of transformer-based models to delay the attention between subparts of the input and allow a more efficient management of computations. The resulting variants are competitive with the original models on the extractive task and allow, on the ODQA setting, a significant speedup and even a performance improvement in many cases.

本文系外文翻译,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文系外文翻译,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【论文推荐】最新六篇自动问答相关论文—排序函数、文本摘要评估、信息抽取框架、层次递归编码器、半监督问答
【导读】既前两天推出十三篇自动问答(Question Answering)相关文章,专知内容组今天又推出六篇自动问答相关文章,为大家进行介绍,欢迎查看! 14. Training a Ranking Function for Open-Domain Question Answering(训练排序函数对开放式问题进行回答) ---- ---- 作者:Phu Mon Htut,Samuel R. Bowman,Kyunghyun Cho 机构:New York University 摘要:In recent y
WZEARW
2018/06/05
7590
自然语言处理学术速递[12.10]
【1】 Transferring BERT-like Transformers' Knowledge for Authorship Verification 标题:利用类BERTTransformer知识进行作者认证 链接:https://arxiv.org/abs/2112.05125
公众号-arXiv每日学术速递
2021/12/10
2980
自然语言处理学术速递[9.9]
【1】 NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task--Next Sentence Prediction 标题:NSP-BERT:一种通过原始预训练任务--下一句预测--的基于提示的零命中率学习者 链接:https://arxiv.org/abs/2109.03564
公众号-arXiv每日学术速递
2021/09/16
9260
自然语言处理学术速递[7.6]
【1】 Power Law Graph Transformer for Machine Translation and Representation Learning 标题:用于机器翻译和表示学习的幂律图转换器
公众号-arXiv每日学术速递
2021/07/27
8330
自然语言处理学术速递[12.15]
【1】 CoCo-BERT: Improving Video-Language Pre-training with Contrastive Cross-modal Matching and Denoising 标题:Coco-BERT:用对比跨模态匹配和去噪改进视频语言预训练 链接:https://arxiv.org/abs/2112.07515
公众号-arXiv每日学术速递
2021/12/17
9460
自然语言处理学术速递[12.22]
【1】 Voice Quality and Pitch Features in Transformer-Based Speech Recognition 标题:基于Transformer的语音识别中的音质和基音特征 链接:https://arxiv.org/abs/2112.11391
公众号-arXiv每日学术速递
2021/12/24
3450
AAAI 2020 提前看 | 三篇论文解读问答系统最新研究进展
在本篇提前看中,我们重点聚焦 AAAI 2020 中与问答系统(Q&A)相关的文章。问答系统是自然语言处理领域的一个重要研究方向,近年来各大国际会议、期刊都发表了大量与问答系统相关的研究成果,实际工业界中也有不少落地的应用场景,核心算法涉及机器学习、深度学习等知识。问答系统(Q&A)的主要研究点包括模型构建、对问题/答案编码、引入语义特征、引入强化学习、内容选择、问题类型建模、引入上下文信息以及实际应用场景问题解决等。在本次 AAAI2020 中,直接以「Question/Answer」作为题目的论文就有 40 余篇。本文选取了其中三篇进行详细讨论,内容涉及语义特征匹配、模型构建和医学场景应用等。
机器之心
2020/02/24
1.5K0
AAAI 2020 提前看 | 三篇论文解读问答系统最新研究进展
自然语言处理学术速递[12.23]
【1】 Trees in transformers: a theoretical analysis of the Transformer's ability to represent trees 标题:Transformer中的树:Transformer表示树能力的理论分析 链接:https://arxiv.org/abs/2112.11913
公众号-arXiv每日学术速递
2021/12/27
8200
自然语言处理学术速递[12.17]
【1】 Pushing the Limits of Rule Reasoning in Transformers through Natural Language Satisfiability 标题:通过自然语言可满足性突破Transformer规则推理的极限 链接:https://arxiv.org/abs/2112.09054
公众号-arXiv每日学术速递
2021/12/17
1.2K0
自然语言处理学术速递[12.7]
【1】 Transformer-based Korean Pretrained Language Models: A Survey on Three Years of Progress 标题:基于Transformer的韩语预训练语言模型:三年进展综述 链接:https://arxiv.org/abs/2112.03014
公众号-arXiv每日学术速递
2021/12/09
1.2K0
自然语言处理学术速递[6.29]
【1】 Efficient Dialogue State Tracking by Masked Hierarchical Transformer 标题:基于屏蔽分层变换器的高效对话状态跟踪
公众号-arXiv每日学术速递
2021/07/02
1.3K0
自然语言处理学术速递[12.16]
【1】 Evaluating Pretrained Transformer Models for Entity Linking in Task-Oriented Dialog 标题:在面向任务的对话框中评估用于实体链接的预训练Transformer模型 链接:https://arxiv.org/abs/2112.08327
公众号-arXiv每日学术速递
2021/12/17
8820
自然语言处理学术速递[6.18]
访问www.arxivdaily.com获取含摘要速递,涵盖CS|物理|数学|经济|统计|金融|生物|电气领域,更有搜索、收藏、发帖等功能!点击阅读原文即可访问 cs.CL 方向,今日共计32篇 Tr
公众号-arXiv每日学术速递
2021/07/02
7250
自然语言处理学术速递[10.19]
【1】 NormFormer: Improved Transformer Pretraining with Extra Normalization 标题:NormFormer:改进的Transformer预训练和额外归一化 链接:https://arxiv.org/abs/2110.09456
公众号-arXiv每日学术速递
2021/10/21
1.5K0
自然语言处理学术速递[12.9]
【1】 Everything at Once -- Multi-modal Fusion Transformer for Video Retrieval 标题:一举多得--用于视频检索的多模式融合转换器 链接:https://arxiv.org/abs/2112.04446
公众号-arXiv每日学术速递
2021/12/09
4880
人工智能学术速递[9.13]
【1】 PWPAE: An Ensemble Framework for Concept Drift Adaptation in IoT Data Streams 标题:PWPAE:物联网数据流概念漂移自适应集成框架 链接:https://arxiv.org/abs/2109.05013
公众号-arXiv每日学术速递
2021/09/16
6630
自然语言处理学术速递[6.30]
【1】 Hate speech detection using static BERT embeddings 标题:基于静电BERT嵌入的仇恨语音检测
公众号-arXiv每日学术速递
2021/07/02
7880
自然语言处理学术速递[10.18]
【1】 StreaMulT: Streaming Multimodal Transformer for Heterogeneous and Arbitrary Long Sequential Data 标题:StreaMulT:面向异构任意长序列数据的流式多模式转换器 链接:https://arxiv.org/abs/2110.08021
公众号-arXiv每日学术速递
2021/10/21
1.3K0
自然语言处理学术速递[10.18]
自然语言处理学术速递[12.14]
【1】 Dependency Learning for Legal Judgment Prediction with a Unified Text-to-Text Transformer 标题:使用统一文本到文本转换器的法律判决预测的依赖学习 链接:https://arxiv.org/abs/2112.06370
公众号-arXiv每日学术速递
2021/12/17
7310
人工智能学术速递[12.17]
【1】 HODOR: High-level Object Descriptors for Object Re-segmentation in Video Learned from Static Images 标题:HOODOR:基于静电学习的视频对象再分割高级对象描述符 链接:https://arxiv.org/abs/2112.09131
公众号-arXiv每日学术速递
2021/12/17
1.3K0
相关推荐
【论文推荐】最新六篇自动问答相关论文—排序函数、文本摘要评估、信息抽取框架、层次递归编码器、半监督问答
更多 >
领券
💥开发者 MCP广场重磅上线!
精选全网热门MCP server,让你的AI更好用 🚀
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档