Mar, 2024

爱丁堡临床自然语言处理在 SemEval-2024 任务 2 中:在没有使用 GPT-4 的情况下优化您的模型

TL;DR通过合并使用三元组和语言建模目标单独进行微调的适配器,提出了一种用于改进大型语言模型(LLMs)一致性的 PEFT 方法。然而,与 GPT-4 相比,我们的新方法在忠实度和一致性方面没有产生更准确的结果。综合三个度量指标,GPT-4 在比赛中以 0.8328 的分数并列第一。最后,通过与 GPT-4 的污染分析,表明没有测试数据泄露。