Jun, 2024

多头RAG:使用LLMs解决多方面问题

TL;DR通过利用Transformer的多头attention层的激活作为提取多方面文档的关键来提高文本生成模型的能力,使得Multi-Head RAG能够更准确地检索复杂查询,并通过实证评估显示在相关性方面相较于标准的RAG基准模型有着高达20%的改进。