利用语言模型提示的多跳 QA 的少样本重新排序
本文提出通过结构化知识图谱中的随机游走来指导语言模型完成多跳推理,从而有效解决语言模型在问答任务中组合多条逻辑事实的限制,并在两个 T5 语言模型上取得了显著的实验效果提升。
Jun, 2023
通过自动提示工程算法 APEER,大型语言模型在信息检索中的零样本相关性排名取得了显著的性能提升,并展现出更好的跨任务和跨语言模型的可迁移性。
Jun, 2024
本文提出了 Prompt-based Conservation Learning (PCL) 框架,提供支持证据不足以证明模型已完成所需推理以获得正确答案。通过在单跳 QA 任务上训练模型并为多跳 QA 任务分配额外的子网络,PCL 获得了新的知识并在保留旧知识的同时减轻了遗忘。实验结果表明,PCL 在多跳 QA 方面具有竞争力,并保留了相应的单跳子问题的良好性能。
Sep, 2022
通过使用 RankPrompt 方法,LLMs 可以自我评级其回答,从而显著提高 ChatGPT 和 GPT-4 的推理表现。
Mar, 2024
本文提出了一种新的技术叫做 Pairwise Ranking Prompting (PR),通过使用适当的排名提示,减少了 LLMs 的负担,使用 moderate-sized open-sourced LLMs 在标准的基准测试中实现了最先进的排名表现。
Jun, 2023
该研究提出了一个基于最小数据增强框架的开放领域问答系统,通过使用近似图算法和无监督问题生成,选择最具信息量的数据集进行微调,从而在效率上实现可比较或更好的准确性,提高了 F-1 分数高达 27.5%。
Oct, 2023
本研究旨在探索大规模语言模型用于信息检索的零 - shot 重排问题。我们提出了一种新颖的离散提示优化方法 Co-Prompt,并将其应用于零 - shot 重排任务中。实验表明,Co-Prompt 相对于基线有着卓越的重排表现,并且生成更易于人理解的提示。
May, 2023
本文提出了一种针对开放域问答中重新排序的特定段落提示调优方法(PSPT),该方法能够通过微调可学习的段落特定软提示,并结合限定的问题 - 段落相关性对段落特定知识进行增强,以基于模型生成问题的对数似然和学到的软提示对检索到的段落进行排序。通过在三个公开可用的开放域问答数据集上使用 Llama-2-chat-7B 模型进行广泛实验,结果证明了所提方法的有效性。
May, 2024
本文提出了一种命名实体识别的新的基于 prompt 的学习方法 - QaNER,它使用了基于问答的方法来解决之前 prompt-based 方法所存在的限制,包括更高的计算复杂性、较差的 0-shot 能力、需要手动 prompt 工程,或缺乏 prompt 鲁棒性等问题。相比之前的方法,QaNER 具有更快的推理速度,对 prompt 质量不敏感,鲁棒性也更强,并且在低资源性能和 0-shot 能力方面表现显著优于之前的方法。
Mar, 2022