ICMLJun, 2024

SiT: 对称不变 Transformer 在强化学习中的泛化

TL;DR一项关于使用自监督方法改进泛化性能、处理图形对称注意力及展示改进结果的研究,使用 Symmetry-Invariant Transformer (SiT) 扩展 Vision Transformer (ViT) 的方法在 MiniGrid、Procgen RL 基准测试上展示了优于 ViTs 的泛化能力,并在 Atari 100k 和 CIFAR10 上体现了更高的样本效率。