大型语言模型通过嵌入损坏的提示进行遗忘学习
通过在训练数据的子集上实现遗忘的相对较轻量级替代方案,我们的研究框架 SPUL 能够显著改善使用 LLMs 进行文本分类时效用和遗忘之间的平衡。
Jun, 2024
通过对大语言模型进行随机组成的实验,研究了任务描述、示例输入、标签、行内指令等多个因素对模型性能的影响,发现重复文本、大型模型以及任务和行内指令对模型性能提升具有积极影响。
Apr, 2024
机器去学习是一项理想的操作,然而实现精确的去学习是具有挑战性或低效的,这篇论文关注于大型语言模型的任务适应阶段的高效去学习方法,并提供了一种算法来选择少量训练样本进行任务适应,最终得出在上下文学习方面比微调方法更有优势的结论。
Feb, 2024
提出了一种高效的取消学习框架,通过引入轻量级的取消学习层并与 transformers 结合,可以在不对整个模型重新训练的情况下有效地更新大型语言模型,以解决用户数据隐私与数据保护法规的问题。实验证明,与现有技术相比,我们提出的方法在分类和生成任务上的有效性得到了验证。
Oct, 2023
机器遗忘是人工智能中的一个新领域,专注于解决在机器学习模型中有选择地遗忘或减少不良知识或行为的挑战,特别是在大型语言模型(LLM)的背景下。本文介绍了一种使用梯度上升算法对 LLM 进行对齐的方法,以便符合伦理、隐私和安全标准,并目标性地删除或修改 LLM 中的学习信息,以解决有害回应和版权问题。
May, 2024
本文提出了一种方法,通过使用较小的 LLM-corrector (LMCor)模型来校正 LLM 生成的输出,从而提高了 LLM 的少样本学习性能,并避免了大量的提示工程。该方法可在不依赖 LLM 权重的情况下进行,可与不同的 LLM 无缝集成以提高其性能。
May, 2023
通过提示缓存改善大型语言模型的推理效率,专注于通过嵌入相似性预测单轮问答任务的提示缓存的准确性,并提出了基于蒸馏的方法来优化嵌入,实验结果显示我们的模型在缓存效率上优于之前的嵌入模型。
Feb, 2024
通过轻量级的大型语言模型,我们提出一种简单而有效的迁移学习策略 LLMEmbed 来改善文本分类的性能,并在公开数据集上的广泛实验验证了其强大的性能,相较于基于更大型的语言模型(如 GPT-3)和复杂的提示策略,我们的方法仅使用 4% 的模型参数、1.8% 的能耗和 1.5% 的运行时间即可达到充分的准确性。
Jun, 2024
大型语言模型开创了人工智能的进展,然而它们可能会危险地记忆和传播敏感、偏见或受版权保护的信息。机器遗忘作为一种尖端解决方案应运而生,针对大型语言模型提供了一种选择性丢弃某些数据的技术,以解决隐私、道德和法律方面的挑战,无需进行完整的模型重新训练。本文回顾了关于大型语言模型的机器遗忘的最新研究,介绍了针对文本数据和分类数据的遗忘方法,并展示了这些方法在删除特定数据的同时保持模型高效性的有效性。本文还强调了机器遗忘的实用性,指出了保持模型完整性、避免过度或不足的数据删除以及确保一致的输出等问题,突出了机器遗忘在推动负责任、道德的人工智能方面的作用。
Mar, 2024
通过修改预测结果而非自身, Embroid 方法通过计算不同嵌入函数下数据集的多个表示,并利用相邻样本的语言模型预测结果的一致性来识别预测错误,从而改进基于提示的学习,展现出在各种任务中显著提高性能的潜力。
Jul, 2023