Feb, 2024

预训练大型语言模型的机器消除学习

TL;DR通过对预训练大语言模型的机器遗忘进行综合研究,我们探讨了‘被遗忘权’的概念,重点关注了尚未充分研究的预训练模型领域。通过对来自 arXiv、书籍和 GitHub 的精选数据集进行严格评估,我们建立了机器遗忘性能的鲁棒基准,并证明这些方法的计算效率比重新训练高出 10^5 倍。我们的研究结果表明,在分布数据上将梯度上升与梯度下降相结合可以提高超参数的稳健性。此外,我们还提供了高效超参数调整的详细指南。我们的发现推动了关于道德 AI 实践的讨论,为预训练大语言模型的机器遗忘机制提供了实质性的见解,并强调了负责任的 AI 发展的潜力。