Sep, 2024
在低资源提取式问答中的语言模型泛化探索
Exploring Language Model Generalization in Low-Resource Extractive QA
TL;DR本研究探讨了大型语言模型(LLMs)在特定领域(如医学和法律)的零-shot提取式问答能力,旨在解决语言模型在封闭领域的泛化能力不足的问题。通过一系列实验,我们发现LLMs在处理封闭领域的特定需求时表现不佳,尤其是在长答案检索和领域特定词义的区分上,揭示了现有LLMs在应对闭域数据集时的挑战,并为其改进指明了方向。