ICLRMar, 2024

无限连接的注意力用于周期结构编码

TL;DR从晶体结构预测材料的物理性质是材料科学中的一个基本问题。本文介绍了一种无限连接的注意力网络,可以在一个深度学习的特征空间中执行无限的原子间势能求和,并提出了一种名为 Crystalformer 的基于 Transformer 的编码器架构,它只需要原有 Transformer 架构的 29.4% 参数,但在不同的性质回归任务中都表现出比现有方法更好的结果。