使用视觉语言模型指导人类决策者的学习
安装概率世界模型到人工智能代理中,为人类与控制这些代理打开了一个高效的交流途径;我们开发了一种名为语言引导的世界模型(LWMs),通过阅读语言描述来捕捉环境动态,提高了代理的通信效率,同时允许人类用简洁的语言反馈在多个任务中同时改变行为。该研究证明了当前最先进的 Transformer 架构在该基准测试上表现不佳,激励我们设计更强大的架构。通过模拟展示了我们提出的 LWMs 的实用性,使代理能够在执行前生成和讨论计划,增强了代理的可解释性和安全性,并使其在真实环境中的性能提高了三倍,而无需在该环境中进行任何交互式经验的收集。
Jan, 2024
通过利用大型语言模型(LLMs)的口述能力和内部状态,该研究提出了一种新的引导性延期系统,结合人工智能和人类决策者的优势,以减少 LLMs 在关键决策时产生的不确定性,并证明通过利用大型模型的数据对较小的 LLMs 进行微调可以提高性能并保持计算效率。一项初步研究展示了该延期系统的有效性。
Jun, 2024
通过定制化的大型语言模型 (LLM) 代理,采用提示工程、启发式推理和检索增强生成的元素,以保持结构化信息,我们提出了一种高效的混合策略,利用 LLM 进行安全分析和人工智能与人类的协同设计,以提高软件工程和安全工程中的生成式 AI 的质量要求,并确保人类对生成式 AI 提供的建议负责,通过图形表述作为系统模型的中间表示,促进了 LLM 和图形之间的交互,以简化的自动驾驶系统为案例说明了我们的方法。
Apr, 2024
通过对已有的案例进行分析,本文提出了交互式人工智能决策辅助系统的设计,旨在通过学习人类的选择来决定何时提供算法支持,从而提高决策的准确性和可靠性。作者在美国刑事司法系统的前期释放审判方面进行了大规模实验,并发现交互式辅助系统能够在必要的时候提供准确的建议,与固定的非交互式系统相比较,可以显著提高人类的决策水平。同时,交互式辅助系统还具有促进人类学习、保护人类决策者补充优势、促进对建议的更积极响应等优点。
Sep, 2022
在这篇论文中,我们讨论了 AI 管理型监管框架与训练过程中人类监督之间的联系,最终得出人类引导训练比仅依赖数据训练更能应对高风险 AI 用例,提高 AI 性能及解决公平性和可解释性问题的结论。
Feb, 2024
每天我们越来越依赖于机器学习模型来自动化和支持高风险任务和决策。这篇论文提出了混合决策系统的分类法,提供了一个概念和技术框架,以理解当前计算机科学文献中的人机交互模型。
Feb, 2024