Apr, 2024

用问题关注的段落抽取增强预设的生成式语言模型在机器阅读理解中的应用

TL;DR在自然语言处理领域,机器阅读理解(MRC)存在着重大挑战。尽管主流的 MRC 方法主要使用仅编码器模型(如 BERT)利用抽取策略,但生成式方法面临着超出控制的生成问题 —— 这是一个关键问题,生成的答案经常是不正确、不相关或与源文本不一致。为了解决生成式 MRC 模型的这些局限性,我们引入了 Question-Attended Span Extraction(QASE)模块。在经过预训练的生成式语言模型(PLM)的微调阶段集成 QASE 模块,显著提高了它们的性能,使它们能够超越像 GPT-4 这样的先进大型语言模型(LLMs)的抽取能力。值得注意的是,这种性能提升并没有增加计算需求。QASE 模块的有效性已经在各种数据集上进行了严格的测试,始终实现甚至超越最先进的结果(SOTA)。