- ICLR双对比网络实现有效的抽象推理
通过使用神经网络来解决 “渐进矩阵” 谜题,本研究旨在提高机器的抽象推理能力。我们提出了一种简单而有效的双重对比网络(DCNet)来利用谜题的固有结构。实验结果表明,DCNet 在性能上优于最先进的方法。
- 分离领域中的行为模仿
本文介绍了基于智能代理的 LTLf 形式化方法来解决计算机科学中的系统模仿问题,从简单映射到全 LTLf 并研究了合成算法和计算性质。
- 人机交互中信任校准调查
通过对该领域的文献进行梳理和分类,可以为未来的研究者和智能系统从业人员提供洞见和方向,以人为中心,信息为重点的角度探究人类对智能代理的信任感,并决定是否接受该代理的推荐或行动建议所需的额外信息。
- IJCAI视频流连续学习中基于注意轨迹的随机相干性
提出一种新的基于神经网络的方法,该方法利用类似人类的注意机制来自主地以像素为单位学习视频流的表示,本文的实验表明,该方法可以在少量监督的情况下进行开放式类增量分类。
- 持续学习和私密遗忘
本文研究了智能代理在长时间内自主学习的情形下,实现对任务的遗忘以保护隐私的问题,并提出了针对这一问题的连续学习和私有遗忘(CLPU)问题的的确切私有解决方案 CLPU-DER++。
- ACL视觉与语言导航:任务、方法和未来发展综述
本文综述了 Vision-and-Language Navigation(VLN)这一领域的现有研究,包括任务、评价指标、方法等,并通过结构化分析当前进展和挑战,强调了当前 VLN 的局限性和未来工作的机遇,是 VLN 研究社区的详尽参考。
- AAAI以同意为负责任自主的基础
本文提出了关于如何实现运行时智能代理负责任的动态方面。首先,提供了关于同意的概念分析,以及如何理解同意可以帮助实现负责任的自主性。其次,概述了人工智能所面临的挑战,特别是代理和多智能体系统,在多智能体系统中建模同意并应用同意实现负责任性的基 - 将 AI 规划与自然语言处理相结合:明示和隐示知识的结合
本文介绍了人工智能规划和自然语言处理之间的相互作用,讨论了四个领域:基于规划的文本理解、基于规划的文本生成、基于文本的人机交互和基于文本的可解释规划,并探讨了一些潜在的未来问题。
- 人工智能长期游戏中的知识工程:基于言语行为的案例研究
本文介绍了知识工程的原理和方法,使得开发跨领域和应用的语言能力智能体成为可能。我们以对话行为建模为例,描述了基于 OntoAgent 知识中心的认知架构的综合方法,并突出了过去方法的局限性,这些方法将对话与其他代理功能隔离开来。
- 广泛覆盖、可解释的认知系统语言生成
本文描述了 OntoAgent 认知架构内开发的面向智能代理的自然语言生成(NLG)的最新进展,该方法在计算语言学的知识库、代理架构和方法上深受过去自然语言理解研究的启发,以实现长期面向广泛覆盖,同时支持近期应用。
- 人工智能与自我意识
本文探讨了人工智能在伦理、决策制定等方面引发的一些问题和讨论,并重点讨论 AI 代理人中的 “自我” 认知和其在决策制定方面的作用。作者旨在提倡建立拥有更强自我认知的 AI 代理人的研究。
- ICLR智能体能力光谱基准测试
文章介绍了一种名为 Crafter 的开放世界生存游戏,可评估智能代理的广泛能力,并通过提供的奖励信号或内在目标进行学习和评估,以使代理成功解锁所有成就需要强大的泛化、深入探索和长期推理。
- CVPR多模态时间卷积网络在自我中心视频中预测动作
本文提出了一种基于时间卷积的层次结构多模态神经网络,不依赖于循环层实现对人类动作的预测,且通过多模态融合机制使得在处理具有 # egocentric videos# 意义的庞大数据集时达到了与最新研究相当的性能,但具有明显的时间优势。
- 坐标学习中,智能体该如何提问?:一份带注解的对话语料库
通过收集 Human-Robot Dialogue Learning (HuRDL) Corpus 数据集,提出利用人类角色扮演机器人在在线交互虚拟环境中进行协作任务,描述了对话数据和对应注释方案,为智能代理的提高提出了帮助学习的问题。
- ACL多任务行为抑制语义漂移
研究智能代理人如何基于共享目标来塑造它们的语言表达能力。多任务培训可以有效解决语义漂移问题,并提高基于任务的语言使用的样本效率。
- AAAI基于推理的确定性多智能体通信消息传递
本文研究了智能代理在协调、学习中的作用,提出了一种基于信息传递的优化方法,通过实验表明该方法可以增强现有的分散式训练方法,具有推广应用的潜力。
- AAAI具有自修改能力的有界理性智能体性能
我们调查了受限理性的代理如何随着时间的推移受到自我修改的负面影响,分析了其大小与代理的理性失误的类型和严重程度之间的关系,其中特别指出在选择非最佳行为的情况下可能会出现指数级错误对齐的情况。
- 学习技能先验加速强化学习
通过学习技能先验分布,将其用于最大熵强化学习,能够在导航和机器人操作任务中实现有效的技能传输。
- 基于论证的方法解释智能体中的目标选择
本文提出了一种基于论证的方法,用于为可解释的人工智能系统生成关于其行动选择过程的解释,并附加有关冲突解决的信息;我们还应用该方法于清洁工作场景。
- 先回报,后探索
Go-Explore 算法通过显式地记住有前途的状态并在有意探索之前首先回到这些状态的简单原则,直接解决了探索中的 “detach” 和 “derailment” 问题,并在所有难探索游戏上超越了现有技术,并在稀疏奖励抓取放置机器人任务上展