基于聊天式大型语言模型的上下文干扰
通过在聊天系统中引入虚构的上下文,利用大型语言模型中的错误分类和上下文混淆的问题,可以进行上下文注入攻击,破坏实时交互的大型语言模型的安全性。研究发现了进行上下文注入攻击的策略并验证了其高成功率,同时提出了攻击检测和开发更安全模型的可能对策。
May, 2024
本文介绍了大型语言模型在上下文学习中的递归学习能力,即元上下文学习。作者以两个理想化的领域为例,展示了元上下文学习是如何适应性地重塑大型语言模型对预期任务的先验知识,并修改其上下文学习策略。最后,作者通过真实世界回归问题的基准测试发现,元上下文学习与传统学习算法相比具有有竞争力的性能。通过元上下文学习而不是传统的 finetuning 来纯粹地适应大型语言模型应用的环境,可以提高大家对上下文学习的理解,为大型语言模型的应用打下基础。
May, 2023
通过提示工程,大型语言模型(LLMs)展示了在上下文学习中的新兴能力。最近在大规模生成模型方面的进展进一步扩展了它们在实际语言应用中的使用。然而,在自然语言理解和问题回答方面,提高 LLMs 的泛化能力和准确性的关键挑战仍未得到充分探索。
Dec, 2023
通过提出 ConfAIde 基准测试,我们的实验结果表明即使在使用了隐私保护提示或思维链推理后,如 GPT-4 和 ChatGPT 这样的最先进模型仍然有 39% 和 57% 的概率在具体情境中泄露私人信息,这凸显了探索基于推理和心智理论的新型推理时隐私保护方法的迫切需要。
Oct, 2023
本研究探讨了大语言模型中的上下文学习现象,并证明了基于长期相关性的预训练可以促进上下文学习。通过人工合成数据集,实验结果表明了模型规模对上下文学习的影响,以及例子顺序和零样本学习等现象。
Nov, 2021
通过探究决策边界对上下文二分类的定性行为,我们发现现有的大型语言模型在简单的二分类任务中学习到的决策边界通常是不规则且非平滑的,本论文研究了影响这些决策边界的因素,并探讨了提高它们泛化能力的方法。通过评估各种方法,包括对大型语言模型的无需训练和微调方法、模型架构的影响以及平滑决策边界的数据高效技术的有效性,我们的研究结果为理解上下文学习动态和改善其鲁棒性和泛化能力提供了更深入的认识和实用改进。
Jun, 2024
在大语言模型时代,人机交互朝着自然语言发展,提供了前所未有的灵活性。然而,大语言模型在上下文学习领域内高效运行往往依赖于结构良好的提示。为了解决这一挑战,我们的研究提出了一个名为自动上下文学习的通用框架。在接收到用户的请求后,我们要求模型自主生成示例,包括标签、说明或推理路径。然后,模型利用这个自产的上下文来解决给定的问题。我们的方法具有普适性,可在适用于普通上下文学习的任何环境中实施。我们展示了我们的方法在一系列任务中取得了强大的性能,并与现有方法相比表现出色。
Nov, 2023
该研究探讨了大型语言模型的上下文学习能力及其理论机制,提出了基于自然语言数据中组合操作的信息理论边界,并从语言学角度验证了模型输出中间步骤的成功经验。研究表明,在缩放参数和数据并提示输出中间步骤时,模型能在多项任务中进行有效的上下文学习,这种学习得到的支持与其输入的组成结构有关。
Mar, 2023
探讨了大型语言模型在上下文学习中的能力,并研究了上下文演示的不同方面对机器翻译任务的影响。观察到不同模型家族对扰动示例呈现不同的行为,表明上下文学习的鲁棒性可能受到多种因素的影响。需要进一步研究来全面了解这些因素。
Jan, 2024