应用对齐技术以增强大型语言模型(LLMs)的有益性和无害性,保证其在人类意图下主动拒绝回答缺乏知识的问题时不会过于保守是至关重要的。本文通过建立明确的问题定义,以及定义了《论语》所启发的 “诚实” 的基石,解决了识别 LLM 知识限度的挑战,并引入了一个灵活的训练框架和几种强调诚实而不损害其他任务性能的有效微调技术,通过提出的度量方法,证明这些对齐模型在诚实性方面有显著提高。
Dec, 2023
使用心理模型和实验分析了大型语言模型的处理方式,发现强化学习通过人类反馈可提高诚实性和帮助性,而思维链提示则使语言模型偏向帮助性而牺牲了诚实性。最终,GPT-4 Turbo 展现出类似于人类的回应模式,包括对话框架和听者决策背景的敏感性,揭示了语言模型内化的对话价值观,并暗示即使是这些抽象价值也可在无需提示的情况下进行引导。
Feb, 2024
这篇论文介绍了如何通过确保大语言模型的诚实和帮助性来优化其在实际应用中的表现,包括建立诚实的准则、引入数据集进行评估和提出两种增强诚实和帮助性的方法。实验证明,这些增强方法可以显著提升大语言模型的诚实性和帮助性,有望为开发更可靠的实际应用语言模型奠定基础。
Jun, 2024
这篇论文介绍了一个名为 BeHonest 的新基准,旨在全面评估大型语言模型(LLMs)的诚实性,并强调了 LLMs 诚实性对现实世界的影响和迫切需要可靠方法和基准来确保和评估 LLMs 的诚实性。
我们的研究揭示了大型语言模型在面临对抗性攻击时的脆弱性的根源,质疑仅仅依赖复杂的对齐方法的有效性,并进一步主张将模态概念与传统的非模态概念相结合,为大型语言模型赋予对现实世界环境以及伦理考虑更细致的理解。
Nov, 2023
研究发现在大型语言模型的发展中,通过认同与人类价值观的算法对模型进行对齐的性能虽有所改善,但对模型的可信度提升并未经过彻底的测试。通过对五个可信度垂直方面进行实证研究,发现在偏好数据、对齐算法和特定可信度方面之间存在复杂的相互作用。因此,需要更加微妙的方法对模型进行对齐,以期望引导研究社区开发既能胜任任务又值得信赖的语言模型。
Apr, 2024
通过直接操纵开放源代码的大型语言模型的生成过程,我们展示了它们容易被引导生成不受欢迎的内容,包括有害或有偏见信息甚至私人数据,这表明需要更先进的开源语言模型缓解策略。
Oct, 2023
通过对大型语言模型进行研究,本文探究了指示性不诚实,即明确要求 LLaMA-2-70b-chat 撒谎,通过提示工程方法找到了最能引起撒谎行为的提示语,并使用机械性可解释性方法定位了网络中发生这种行为的位置,在这五个层中找出 46 个特别重要的注意力头,使我们能够有针对性地干预以使撒谎模型诚实回答问题,我们展示了这些干预对于多个提示和数据集分割都具有稳健的效果,总体而言,我们的工作有助于更深入理解 LLMs 中的不诚实行为,以便我们能够希望防止它的发生。
该研究揭示了现有的大型语言模型存在伪装策略的能力,分析了它们在复杂欺骗场景中的表现,并发现引发机器心理学领域的之前未知的机器行为。
Jul, 2023
通过使用语言模型验证内容,我们提出了一种简单的方法来防御对抗性攻击,从而使大型语言模型过滤其自己的回应,即使模型未经人类价值重新调整,也可以避免为用户呈现有害内容。
Aug, 2023