ACLMar, 2024

通过使用大型语言模型,在 RST 篇章分析中能否取得显著成功?

TL;DR本文研究了具有数十亿参数的解码器预训练大型语言模型(LLMs)对修辞结构理论(RST)的语篇分析的影响,并且在基于自上而下和自下而上策略的语篇解析过程中,将此解析过程转化为 LLMs 可以处理的提示,并通过 Llama 2 进行了微调。实验结果表明,具有 700 亿参数的 Llama 2 在自下而上策略上获得了领先的成绩,相较于现有的 RST-DT 训练的解析器具有显著的差异。此外,在 RST-DT 上评估时,我们的解析器表现出了一定的泛化能力,尽管是使用 GUM 语料库进行训练,但获得了与使用 RST-DT 训练的现有解析器类似的性能。