Apr, 2024

大型语言模型能从错误中持续演进

TL;DR通过“从错误中总结”的学习技巧,我们提出了继续从错误中演进的方法(CEM)来实现对大型语言模型的迭代改进,从而解决其知识缺陷问题。我们通过采集涉及问题相关的知识的多个数据源,进行连续、有针对性的知识更新和补充,同时开发了两种策略来构建补充训练集,以增强语言模型对语料库的理解能力并防止灾难性遗忘。通过广泛实验验证了该方法的有效性,最佳情况下,该方法使语言模型的准确性提高了17.00%。