前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >召回:是"塔",是"塔",但不是双塔!

召回:是"塔",是"塔",但不是双塔!

作者头像
炼丹笔记
发布2022-04-06 19:11:40
6170
发布2022-04-06 19:11:40
举报
文章被收录于专栏:炼丹笔记

query到doc这种文本到文本的召回,通常就是各种双塔召回,再排序的过程.谷歌这篇论文<Transformer Memory as a Differentiable Search Index>却偏不.这篇论文提出了Differentiable Search Index(DSI)的方法,直接就把docid编码到了模型中,output直接就是docid,不需要像以往那样还要建立docid到向量的索引再ANN召回.这样在结果上显著优于双塔.

模型框架

上图就是对比了传统双塔召回和本文的DSI召回,我们可以看到DSI是一个Encoder,Decoder的流程,通过Beam Search可以直接得到docid的list.

模型细节

索引策略:

  • Inputs2Target: Seq2Seq任务,把doc的tokens翻译成docid. (论文最终采用).
  • Target2Inputs: 上面方法反转下,用docid翻译成tokens.
  • Bidirection: co-training 上述两种方式,使用一个前缀让模型知道是什么方向.
  • span corruption: 直接把docid和tokens拼在一起,好处是方便做预训练.

Doc表达策略:

  • Direct Index: 使用doc前L个tokens表示该doc (论文最终采用).
  • Set Index: 先去重,去停用词,然后按照类似direct index的方式操作.
  • Inverted Index: 多次采样连续的k个tokens表示该doc.

召回中docid的表达:

最简单的就是一个doc给定一个任意不重复的int值,这样我们就可以直接用softmax去学tokens和docid embedding直接的关系:

论文使用的是Semantically Structured Identifiers,这种方法认为docid不能任意给个int值然后lookup让模型学embedding,docid需要包含语义信息.除了这点,该方法还必须在decoding的时候检索性能要好.所以该方法是给定所有doc集合,先聚成10个类,每个doc第一位就是0~9,每个类都必须包含不超过c个的doc,不然就重复聚类操作.论文聚类算法用的kmeans,doc embedding用的是8层的小bert, c设置为100.

训练过程就是2步,第一步先让seq2seq学会记忆tokens到docid的映射,第二步就是fine-tuning到我们有label的query2doc任务上去.

实验

参考资料

  • Transformer Memory as a Differentiable Search Index

https://arxiv.org/pdf/2202.06991.pdf

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-02-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 炼丹笔记 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档