Jun, 2024

论文标题:上下文学习和微调 GPT 用于论证挖掘

TL;DR大型语言模型 (LLMs) 在自然语言处理和深度学习领域已变得无处不在。我们介绍了一种基于 In-Context Learning (ICL) 的策略,结合 kNN-based examples selection 和 majority vote ensembling 来解决 Argument Type Classification (ATC) 的任务。在无需训练的 ICL 设置中,GPT-4 可以仅从少量示例中获取相关信息,并在 ATC 上达到很高的分类准确率。在引入文本形式的良构结构特征的 fine-tuning 策略中,GPT-3.5 在 ATC 上达到了最新的性能水平。总体而言,这些结果强调了 LLMs 在原始文本的离线和微调设置中理解全局论证流程的新能力。