Apr, 2024

通过元训练和大型语言模型的上下文学习,为跨语言学习调整心理健康预测任务

TL;DR该研究介绍了两种不同的方法,使用模型无关的元学习和利用大型语言模型(LLMs)来预测低资源非洲语言(如斯瓦希里语)中心理健康状况。通过应用于压力、抑郁、抑郁症严重程度和自杀倾向等四个心理健康任务的三个翻译为低资源语言的数据集进行实验,结果显示我们的元学习模型在宏观 F1 得分上相较于 XLM-R 和 mBERT 的基准微调方法有 18%和 0.8%的显著提高,同时,研究还通过分析不同的跨语言提示方法,利用 LLMs 的上下文学习能力评估了它们在斯瓦希里心理健康预测任务中的准确性,并发现斯瓦希里提示优于跨语言提示但不及英语提示。研究结果表明通过精心设计的提示模板、示例和说明可以通过跨语言迁移实现上下文学习。