本文介绍了一种应对开放性场景中新颖性挑战的方法,该方法结合了逻辑表示和推理方法,利用通用方法和架构机制检测、表征新颖性,并构建相应的适应性模型进行应对。通过在多智能体博弈中的评估,结果表明所提出的方法在各种新颖性挑战下均表现出高准确率。
Feb, 2023
研究 AI 代理人的鲁棒性来应对新奇环境,DARPA 的 SAIL-ON 计划致力于开发必要的科学来评估代理人的鲁棒性,同时利用实验室实验中使用的技术来衡量代理人检测、表征和适应新奇性的能力。
该研究提出了一种基于模型的强化学习方法,在该方法中,游戏状态和规则都是以知识图谱的形式表示,有助于检测游戏环境中的开放性创新,并进行智能重训练。
Jun, 2021
我们提出了一种将新颖性检测引入世界模型强化学习代理中的直接边界方法,通过利用世界模型产生的虚拟状态与真实观察状态的不一致作为异常得分,有效探测并保护代理在新环境中的性能和可靠性。
Oct, 2023
在开放世界中,我们介绍了一个适应新颖性的规划领域模型的方法,通过检测行动执行的观察值和环境模型的预期值之间的差异来推断新颖性的存在,并通过启发式导向的模型改变搜索来修订模型。我们在标准的强化学习基准 CartPole 问题上进行实证评估,结果表明我们的方法可以快速且可解释地处理一类新颖性。
Mar, 2023
本文提出一种评估 AI 系统应对开放世界新颖问题难度的方法,以帮助研究人员系统地训练其系统,并衡量其表现。
Jul, 2022
介绍了一种使用抽象环境模型的新颖性生成方法,不需要特定领域的人为指导即可生成更多的新颖性,然后采用人类的辅助选择和过滤这些生成的新颖性,并在 Monopoly 和 VizDoom 领域中测试了该方法的结果。
Jun, 2023
通过团队自身所遇到的不确定性问题,本研究针对 AI 在处理 novelty(新颖性)问题时的困难,提出了第一个统一的框架,并且给出了公式化的定义方法,以适用于多个领域。该框架填补了相关领域的研究空白,并有助于推动该方向的研究进展。
Dec, 2020
该研究旨在促进具备应对物理情境中异常情况能力的智能体的发展,通过开发一个新的测试平台 NovPhy 并在其中设计了 8 种不同类型的异常情境,并运用到 5 个常见的物理情境中,测试了人类、学习智能体和启发式智能体的表现,结果表明人类的表现远远超过智能体,并引发对如何设计更为智能的物理智能体的思考。
研究提出了一种新奇性改进的强化学习方法,针对具有改变环境机制 / 属性的新奇性,提出了 NovGrid 框架及其本体,以及可以应用于 MiniGrid 兼容环境的新奇性模板,并通过内置度量指标评估了基线强化学习模型的特征。
Mar, 2022