Jun, 2024

基于注释指南的知识增强:用于提升教育文本分类的大型语言模型

TL;DR使用基于批注指南的知识增强(AGKA)方法,我们对大型语言模型(LLMs)进行了综合评估,并在学习参与度分类(LEC)任务上取得了改进。AGKA 利用 GPT 4.0 从批注指南中检索标签定义知识,并应用随机欠采样器选择一些典型示例,通过六个 LEC 数据集对其进行了系统评估。结果表明,AGKA 可以提升非微调的 LLMs,在简单的二分类任务上 GPT 4.0 的 AGKA few-shot 的性能优于 BERT 和 RoBERTa 等全微调模型,但在需要深入理解复杂语义信息的多类任务中,GPT 4.0 有所落后。值得注意的是,基于开源 LLM 的 Llama 3 70B 与 AGKA 结合具有很大潜力,并且性能与基于闭源的 GPT 4.0 与 AGKA 相媲美,但 LLMs 难以区分多类分类中名称相似的标签。