Jun, 2024

上下文的重要性:对时间问答系统中上下文信息影响的实证研究

TL;DR该论文通过经验性地考察训练在各种上下文类型中的时间问答(TQA)系统的鲁棒性,填补大型语言模型(LLM)在处理时态信息方面的不足,发现在涵盖相关、无关、稍微改动和无上下文的混合情况下训练,能增强模型的鲁棒性和准确性,并且问题先于上下文的位置布局有着明显影响。提出了两个新的上下文丰富的 TQA 数据集,ContextAQA 和 ContextTQE,并提供了全面的评估和指南,为培养鲁棒的 TQA 模型奠定了基础,对加强 LLM 在面对多样化和潜在对抗性信息时的鲁棒性具有广泛的影响。