Jun, 2023

将晶格对称性先验注入注意力机制中,用于提高抽象几何推理的样本效率

TL;DR本文提出了LatFormer模型,将晶格对称乘法先验纳入注意力掩码中,以实现极端泛化,并在合成几何推理方面进行了实验证明,表明LatFormer需要比标准注意力和转换器少2个数量级的数据,并且对于包括几何先验的ARC和LARC任务的结果提供了初步证据,表明这些复杂的数据集不在深度学习模型的能力之外。