该论文研究解决游戏人工智能的反应延迟问题,通过给智能体一个神经预测模型滞后,展示了超级斗地主Bros. Melee等游戏中对抗专业玩家的有效性。
Oct, 2018
通过遗传算法,同一物体的不同部分可以被联合训练,得到与分开训练相媲美的性能,该研究进一步证明了深度神经进化在复杂异构体系结构下的有效性。
Apr, 2019
这篇综述性研究论文介绍了深度强化学习在神经科学中的应用,讨论了其对大脑和行为研究的影响,并提出了未来研究的机会。
Jul, 2020
该研究提出了使用认知模型作为模拟人类代替人类与人工智能交互和收集反馈以提高训练效率的方法,并在道德决策制定方面实践,表明这是计算认知科学对人工智能的重要贡献。其中使用强化学习代理与认知模型交互学习公平性,并能理性调整行为,以此为例说明认知模型作为人类模拟器在训练人工智能系统方面是有效的。
Oct, 2022
该论文介绍了利用深度网络来模拟人类心智状态,并在多智能体环境中进行信念预测和强化学习的初步实验结果。
Jul, 2023
人工智能研究可以通过更强调决策随时间演变的洞察和整合相关的过程数据来提高对人工智能预测的准确性和人机交互的效果。
Aug, 2023
通过对行为限制的自适应行为成本,提出了一种新的方法称为自适应行为成本在强化学习中(ABC-RL)来训练一种具有竞争力的类人代理,以达到与人类相似的表现和行为水准。
Sep, 2023
强化学习和神经科学之间存在紧密的联系,本论文通过回顾经典强化学习和介绍现代深度强化学习的方法,以及其在系统神经科学中的应用,阐述了这种联系。
Nov, 2023
通过强化学习原理的角度分析了强化学习来自人类反馈的语言模型的基础,重点关注了奖励模型作为RLHF核心组件的建模选择、函数逼近的陷阱,以及它们对训练算法的影响,同时揭示了当前方法的局限性。通过对现有文献的分类评论,我们对RLHF的挑战进行了描述,为研究人员和从业者理解RLHF的挑战并建立在现有研究的基础上提供参考。
Apr, 2024
以运动预测为基础的自我监督方法 Ego-Foresight 可提高强化学习算法的效果和性能。
May, 2024