[ACL 2024] Synergistic Interplay between Search and Large Language Models for Information Retrieval
冯家展关于通过检索模型和大语言模型之间的协同作用来促进信息精炼的论文《Synergistic Interplay between Search and Large Language Models for Information Retrieval》被ACL 2024接收。
信息检索(IR)在从海量数据中定位相关资源方面起着至关重要的作用,其应用已从传统的知识库发展到现代的检索模型(RMs)。大型语言模型(LLMs)的出现进一步革新了IR领域,使用户能够以自然语言与搜索系统进行交互。在本文中,我们探讨了LLMs和RMs的优缺点,强调它们在理解用户发出的查询和检索最新信息方面各自的优势。为了利用这两种范式的优点并规避它们的局限性,我们提出了InteR,这是一种通过RMs和LLMs之间的协同作用来促进信息精炼的新框架。InteR允许RMs使用LLM生成的知识集合来扩展查询中的知识,并使LLMs能够使用检索到的文档来增强提示生成。这个迭代精炼过程增强了RMs和LLMs的输入,导致更准确的检索。在涉及网页搜索和低资源检索任务的大规模检索基准测试中,实验表明,InteR在零样本检索性能方面总体上优于最先进的方法,即使是那些使用相关性判断的方法。