黑盒顺序决策系统的自主能力评估
本文提出了一种新的方法来 “差异” 评估已经漂移了的黑盒 AI 代理,包括珍稀观测和其初始模型,以生成一个主动查询策略,并计算其功能的更新模型,我们的方法比从头重新学习代理模型要有效得多,使用我们的方法进行差异评估的成本与代理功能的漂移程度成正比。
Mar, 2022
近年来,自动规划(AP)和强化学习(RL)的整合引起了广泛关注。为了实现这种整合,我们试图提供一个适用于从传统规划到深度强化学习的任何方法的顺序决策制定(SDM)的通用框架,该框架借鉴了概率论和贝叶斯推断的概念。我们用训练和测试的马尔可夫决策过程(MDPs)集合来定义 SDM 任务,以考虑泛化性。我们提供了一个 SDM 的通用算法,并推测每个 SDM 方法都基于它。根据该算法,每个 SDM 算法可以被看作是通过利用可用的任务知识来迭代改进其解决方案估计的过程。最后,我们推导出一组用于计算 SDM 任务和方法的有趣属性的公式和算法,从而使得它们的经验评估和比较成为可能。
Oct, 2023
本篇论文介绍了一种基于 agent assessment module 的 AI 系统执行高级指令序列并回答用户问题的方法,通过不同类别的查询来比较这种方法的计算要求和正确模型的学习所需的努力,并介绍了动态因果决策网络来捕捉 STRIPS-like 领域的因果结构。
Aug, 2021
通过语义能力模型生成自动化的人工智能规划问题,结合现有解决器,找到有效的能力序列,包括所需的参数值,并提供集成人类专业知识和解释的可能性,帮助理解规划决策。
Dec, 2023
本文介绍了一种名为 LCORPP 的机器人 SDM 框架,通过使用混合推理范式提高状态估计器,提供概率规划器的有用先验知识,以估计人类意图和进行规划,实验表明此框架比无学习和无推理的对应框架在办公环境中具有更高的效率和准确性。
Jan, 2019
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道德可容许互动的两个必要条件,以及实现有意义益处理想的两个充分条件。同时,我们将这一理想与几种突出的故障模式进行对比,即构成不合理家长式主义、强制、欺骗、剥削和支配的社会互动形式。AI 在高风险领域中的事件增加凸显了这些问题的重要性,也迫使我们从一开始就采取伦理导向的方法来应对 AI 系统。
Aug, 2023
本研究旨在描述一种自动化网络攻击防御的方法,通过将被保护系统的模拟与任意在线规划应用于部分观测的马尔科夫决策问题(POMDPs),并结合基于模型的人工智能,以实现风险防范与效益平衡。
Feb, 2020
AI 系统的效率取决于其与给定任务的特定要求的一致性;然而,任务的固有复杂性常常引入潜在的有害影响或不良行为。本研究探讨了 AI 系统中关键的能力概念,即系统应该提供的功能;该概念的表达包括明确定义的结果,但实现这一能力可能会受到实施和测试不足的影响,反映了系统能力与其成功执行的能力之间的差距。探索 AI 系统有效执行任务的能力存在一项核心挑战,这一挑战尚处于初级阶段,有时表现为表示成功概率的置信区间。对于 AI 系统的能力的明确建模和详细规范是建立对其的信任的关键,它与系统的能力密切相关。本研究提出了一个框架,来说明 AI 系统的能力。受到类似 “Glass Door problem” 这样的实际场景的启发,其中一个人由于能力上的失败而无意间遇到玻璃障碍物,本研究强调了深入研究能力动态的重要性。通过详细层面上弥合能力与功能之间的差距,本研究促进了增强 AI 系统在现实应用中可靠性的讨论。
Nov, 2023
人机感知人工智能是一种以设计为导向的范式,专注于对其可能与之互动的人进行建模,并通过使用这些维度作为工具,了解和审查与人工智能系统相关的当前工作情况。
May, 2024