本文使用多智能体系统模拟了在某些更有影响力公司有权塑造其他公司生态环境的商业环境中,代表公司如何合作和适应的情况。
Jun, 2022
本研究采用多智能体相互作用的方法,开发了一个可扩展的具有现实物理和人类相关语义的竞争环境,旨在解决强探索环境中的问题,并进行了多项实验以获得简单的新兴策略和未来改进的具体方向。
Jan, 2023
研究了多智能体策略在混合合作 - 竞争环境下的学习问题,提出使用图神经网络和强化学习联合训练的方法,并可以将其应用在异构多智能体行为的研究中。最终,提出了集合训练的算法,将对手 Agent 的策略融合到训练中,以提高团队的整体表现。
Jul, 2020
通过竞争进化 (CompetEvo),能够使代理体在多智能体竞争场景中进化出满足战斗需求的适宜设计和策略,相较于固定形态的代理体,在战斗场景中获得优势,并展现出异形对峙时产生的惊人和印象深刻行为。
May, 2024
通过应用进化算法,EvoAgent 可以自动将专家代理扩展为多代理系统,从而提高基于大型语言模型的代理在解决任务中的效力。
Jun, 2024
通过交互式进化计算以及应用定量和定性评判标准指导多目标进化算法,将用户反馈嵌入到适应函数中,使算法能够辨别出有前景和较差的解决方案,实验证明该交互机制可以有效地引导搜索进入专家真正感兴趣的搜索空间区域。
Jan, 2024
本文通过 NeuroEvolution of Augmenting Topologies(NEAT)方法在协同进化的机器人对战领域进行应用,证明复杂化的进化方式可以更好地发现和改进复杂问题的解决方案,因此我们应该让进化和搜索复杂化并优化以发现和改进复杂问题的解决方案。
Jun, 2011
通过强化学习提出并评估了一种新的方法来帮助开发通用框架,用于获取、处理和利用即时和未来使用的经验,以解决优化问题和平衡探索和开发之间的挑战。
Dec, 2023
本文探讨了一种基于进化博弈论思想的解决方法来解决一组同质且自主代理在未知且随机环境中的路径规划问题,研究了多智能体规划方法,并展示了我们的技术在大空间中最小化路径长度方面击败了现有的状态良好的强化学习算法近 30%,并且比深度强化学习方法快至少一个数量级,并且与其他方法相比,扩展性更好,最后,我们证明了我们学到的政策在演化上是稳定的。
Dec, 2022
采用共享奖励系统鼓励多样性行为是避免进化算法陷入局部极小值的有效方法,用于解决迷宫问题和 Atari 游戏,相比 Novelty Search 方法,本文方法实现更简单且性能更好。