召回:是"塔",是"塔",但不是双塔!

2022-04-06 19:11:40 浏览数 (2)

query到doc这种文本到文本的召回,通常就是各种双塔召回,再排序的过程.谷歌这篇论文<Transformer Memory as a Differentiable Search Index>却偏不.这篇论文提出了Differentiable Search Index(DSI)的方法,直接就把docid编码到了模型中,output直接就是docid,不需要像以往那样还要建立docid到向量的索引再ANN召回.这样在结果上显著优于双塔.

模型框架

上图就是对比了传统双塔召回和本文的DSI召回,我们可以看到DSI是一个Encoder,Decoder的流程,通过Beam Search可以直接得到docid的list.

模型细节

索引策略:

  • Inputs2Target: Seq2Seq任务,把doc的tokens翻译成docid. (论文最终采用).
  • Target2Inputs: 上面方法反转下,用docid翻译成tokens.
  • Bidirection: co-training 上述两种方式,使用一个前缀让模型知道是什么方向.
  • span corruption: 直接把docid和tokens拼在一起,好处是方便做预训练.

Doc表达策略:

  • Direct Index: 使用doc前L个tokens表示该doc (论文最终采用).
  • Set Index: 先去重,去停用词,然后按照类似direct index的方式操作.
  • Inverted Index: 多次采样连续的k个tokens表示该doc.

召回中docid的表达:

最简单的就是一个doc给定一个任意不重复的int值,这样我们就可以直接用softmax去学tokens和docid embedding直接的关系:

论文使用的是Semantically Structured Identifiers,这种方法认为docid不能任意给个int值然后lookup让模型学embedding,docid需要包含语义信息.除了这点,该方法还必须在decoding的时候检索性能要好.所以该方法是给定所有doc集合,先聚成10个类,每个doc第一位就是0~9,每个类都必须包含不超过c个的doc,不然就重复聚类操作.论文聚类算法用的kmeans,doc embedding用的是8层的小bert, c设置为100.

训练过程就是2步,第一步先让seq2seq学会记忆tokens到docid的映射,第二步就是fine-tuning到我们有label的query2doc任务上去.

实验

参考资料

  • Transformer Memory as a Differentiable Search Index

https://arxiv.org/pdf/2202.06991.pdf

0 人点赞