Dec, 2023

SPOT: 自身训练的基于补丁顺序置换的自回归 Transformer 的物体中心学习

TL;DR非监督式物体中心学习中引入了两个新技术:一种基于注意力的自我训练方法,通过从解码器到编码器提取出优越的基于槽的注意力掩码来增强物体分割;一种创新的自回归变换器中的补丁顺序排列策略,加强了槽向量在重构中的作用。这些策略的有效性在实验证明了该方法明显优于以往的基于槽的自编码器方法,特别是在处理复杂的真实图像时。具体实现代码请参考此网址。