语言模型是可对齐的决策者:数据集和医疗分诊领域的应用
通过对八种流行的大型语言模型在三个临床病例描述数据集上进行严格评估和分析,我们发现这些模型在受保护群体之间存在各种不同程度的社会偏差,而大小模型并不一定比通用模型更具偏见,经过设计决策的提示方式对社会偏差也有影响,研究呼吁对在临床决策支持应用中使用的大型语言模型进行进一步评估、审查和改进。
Apr, 2024
大型语言模型(LLM)在商业、工程和医学等领域日益广泛应用。本文提出了 DeLLMa(不确定环境下的决策型大型语言模型助手)框架,通过多步骤的脚手架过程,绘制决策理论和效用理论的原则,提供一种优化且可由人类审查的决策过程,从而显著提高 LLM 的决策性能,使准确率提高了 40%。
Feb, 2024
大型语言模型在医疗领域的利用引发了劲头和担忧,本文概述了目前开发的大型语言模型在医疗保健方面的能力,并阐明它们的发展过程,旨在提供从传统预训练语言模型(PLMs)到大型语言模型(LLMs)的发展路线图的概览。总的来说,我们认为正在进行一次重大的范式转变,从 PLMs 过渡到 LLMs,这包括从辨别式人工智能方法向生成式人工智能方法的转变,以及从以模型为中心的方法论向以数据为中心的方法论的转变。
Oct, 2023
大型语言模型(LLMs)在各种自然语言处理任务中表现出令人惊讶的性能。最近,结合领域特定知识的医学 LLMs 在医疗咨询和诊断方面展现出卓越能力。本文系统地探讨了如何基于通用 LLMs 训练医学 LLMs,并提供了指导各种医学应用的 LLMs 发展的方法。
Jun, 2024
使用自然语言生成模型(LM)可能存在潜在的歧视风险,因此需要更好的方法来评估这些风险。本研究通过使用 LM 生成各种潜在的提示语句,并系统性地改变其中的人口统计信息,从而在各种社会决策场景中评估 LM 的潜在歧视影响。结果显示,在某些特定情况下,未进行干预的 Claude 2.0 模型存在积极和消极歧视的模式。通过有效的提示语句工程,我们展示了降低这些歧视的技术,为安全部署 LM 在适当的使用场景提供了路径。这一研究成果使开发人员和决策者能够在语言模型的能力和应用不断扩展的过程中预见、衡量和解决歧视问题。
Dec, 2023
该研究对最先进的大型语言模型进行了综合比较分析,评估了它们的道德特性,发现专有模型主要以功利主义为基础,而开源模型更符合价值伦理学;另外,通过道德基础问卷,除了 Llama 2 外,所有被调查模型都显示出明显的自由主义偏见;最后,为了对其中一个研究模型进行因果干预,提出了一种新颖的相似性激活引导技术。通过该方法,可以可靠地引导模型的道德观达到不同的伦理学派别。所有这些结果表明,已经部署的大型语言模型存在一个常常被忽视的道德维度。
May, 2024
提出了一种基于大型语言模型(LLMs)的多学科协作(MC)框架,通过角色扮演的 LLM 代理参与协作多轮讨论,增强 LLM 的能力和推理能力,用于挖掘并利用 LLMs 中的医学专业知识和扩展其推理能力,同时在人类评估中找出常见错误并进行消融研究。
Nov, 2023
利用人工智能反馈,提出了一种新颖的方案:辩证对齐(Dialectical Alignment)模型,用于调整大语言模型在不同外部证据冲突下的内部状态,以抵御被污染的数据攻击,提高系统的安全性。
Mar, 2024
当 LML(大型语言模型)在各个领域中深入应用时,了解它们如何做出道德判断变得至关重要,特别是在自动驾驶领域。本研究利用 Moral Machine 框架,调查了几个重要 LML(包括 GPT-3.5,GPT-4,PaLM 2 和 Llama 2)的道德决策倾向,并将它们与人类偏好进行比较。虽然 LML 和人类的偏好在许多方面保持一致,如优先考虑人类而非宠物,倾向于拯救更多生命,但尤其是 PaLM 2 和 Llama 2 表现出明显的差异。此外,尽管 LML 和人类的偏好在质的方面相似,但在量的方面存在显著差异,这表明相较于人类的温和偏向,LML 可能更倾向于更坚决的决策。这些发现揭示了 LML 的道德框架,以及它们对自动驾驶的潜在影响。
Sep, 2023