关键词self-supervised auxiliary task
搜索结果 - 3
- 有限数据,无限潜力:ViT 与遮蔽自编码器增强的研究
Vision Transformers (ViTs) 使用自我监督学习 (SSAT) 作为辅助任务与主任务同时进行联合优化,以在有限的数据量下取得更好的性能表现,此方法能帮助 ViTs 充分利用自我监督任务和主任务的独特特点,展现出优于传统 - MA2CL: 多智能体强化学习的遮蔽式关注对比学习
本文提出了一个名为 MA2CL 的新方法,通过使用掩码代理观察在潜在空间中重建模型,并使用对比学习对模型进行训练,鼓励学习表示是同时具有时间性和代理级别预测性的,以提高多代理强化学习的效率和样本效率,扩大了环境中代理级别的上下文信息的应用。
- AAAI在异步深度强化学习中使用蒙特卡罗树搜索作为演示器
本文介绍了一种新的深度强化学习方法 Asynchronous Advantage Actor-Critic (A3C-TP),并提出一种新的框架,将规划算法和异步分布式深度强化学习方法相结合,相对于传统方法,提高了学习速度和收敛策略的能力。