通过组合小语言模型提炼大型语言模型
利用特定域数据对大型语言模型进行微调时,存在个人身份信息敏感度的问题。为了解决这一挑战,我们引入了隐私保护语言模型(PPLM),通过有效注入特定领域知识来保护数据隐私。我们的工作提供了模型设计理论分析,并详细介绍了诸如语料库整理、基于惩罚性失真的训练损失和基于指令的微调等技术。在各种数据集和场景下的广泛实验证实了我们方法的有效性。特别是,正负样本指令微调成为一种有潜力的方法,可以在增强模型知识的同时保护私人数据。我们的工作突显了大型语言模型作为强大隐私保护学习器的潜力。
Oct, 2023
提出了一种利用小规模语言模型与大规模语言模型相互提升的方法,通过小规模语言模型生成特定任务的高质量数据,从而显著提高客户端的小规模语言模型和云服务器的大规模语言模型的特定任务性能,同时保持大规模语言模型的泛化能力。
Dec, 2023
通过对多个大型语言模型 (LLMs) 进行假设集成的研究,对于基于 LLM 的机器翻译问题,我们探讨了如何提高生成文本的质量。我们尝试了多种假设集成技术,如 ChatGPT、LLaMA 和 Alpaca,并进行了综合研究,包括生成假设的方法(多个提示、温度采样和束搜索)以及生成最终翻译的策略(基于指令、基于质量的重新排序和最小贝叶斯风险解码)。我们的研究结果表明,MBR 解码是一种非常有效的方法,使用少量样本可以提高翻译质量,指令调整对假设的多样性和采样温度之间的关系具有很大影响。
Oct, 2023
近期大型语言模型(LLMs)在各种风格和体裁的文本生成方面展示了惊人的能力。然而,这种能力容易被滥用,如虚假新闻生成、垃圾电子邮件创建以及在学术作业中的误用。因此,建立能够区分人工生成文本和人类作者文本的自动化方法至关重要。本文提出了一种简单而高效的解决方案,通过集成多个组成 LLM 的预测来解决这个问题。相较于以往基于困惑度或使用众多 LLM 的集成方法,我们的简化集成方法仅使用两个组成 LLM 即可达到可比较的性能。在四个生成文本分类基准数据集上进行的实验证明,与以往的最先进方法相比,性能提升范围在 0.5%到 100%之间。我们还研究了来自各个 LLM 的训练数据对模型性能的影响。结果表明,将商业限制的生成预训练变压器(GPT)数据替换为其他开放语言模型生成的数据,如 Falcon、Large Language Model Meta AI(LLaMA2)和 Mosaic Pretrained Transformers(MPT),是开发生成文本检测器的可行替代方法。此外,为了展示零 - shot 推广能力,我们在一个英语散文数据集上进行了实验,结果表明我们的集成方法可以有效处理新数据。
Nov, 2023
我们提出了一种数据筛选框架,以增强大语言模型的安全对齐性,通过减少含有有害信息的数据的影响或增加在下游微调期间的越狱难度。在研究中,我们通过预训练或微调采用经过筛选的干净文本对大语言模型进行训练,观察到在安全对齐方面对有害查询的响应性明显改善,例如当使用含有 5% 有害实例的众包数据集进行预训练时,添加相同数量的经过筛选的文本显著减少了大语言模型提供有害响应的可能性,并将攻击成功率降低了 71%。我们的研究代表了缓解基于训练的越狱风险以及加固大语言模型安全使用的重要进展。
May, 2024
LLMs 应用的规模不断扩大,但同时也带来了污染问题,而模型的完整性对业务应用和筹款至关重要。本文调查了 LLMs 污染问题的最新研究,并通过开源 Python 库 LLMSanitize 实现了主要污染检测算法,以帮助社区跟踪 LLMs 的污染水平。
Mar, 2024
利用预训练的大型语言模型 (LLM) 对经典的监督机器学习方法进行增强,以应对分类问题,并提出了几种将 LLM 集成到经典机器学习估计器中的方法,从而进一步提高预测性能。通过标准的有监督学习二分类任务和数据分布发生变化的迁移学习任务,对所提出的方法进行了性能评估。通过对四个公开的数据集进行数值实验,结果表明利用 LLM 增强经典机器学习估计器可以显著提升预测性能。
May, 2024
我们在相同任务和输入上提出了一个机器翻译模型和 LLM 的即时集成方法。我们在 4 个语言对(两个方向)上进行了实验,并且数据量有所不同。我们发现,稍微差一些的 LLM 可以提高 NMT 模型的翻译质量,并且与 LLM 集成可以产生比两个更强的机器翻译模型集成更好的翻译结果。我们结合了 LLM 提示的各种技术,如上下文学习和翻译上下文。
Nov, 2023
我们探索了一种知识消毒方法,用于减轻与大型语言模型(LLMs)相关的隐私问题。我们的方法通过微调模型,在查询特定信息时,促使其生成无害回答,如 “我不知道”。实验证实,我们的简单方法不仅最小化了特定知识泄漏,还保留了 LLM 的整体性能。这两个优势加强了对提取攻击的防御,并减少了产生幻觉等有害内容的排放。
Sep, 2023