Feb, 2020

分子注意力变换器

TL;DR通过在 Transformer 中使用原子间距离和分子结构来扩充注意力机制,我们提出了 Molecule Attention Transformer(MAT)神经网络模型,其可以在一系列不同的分子预测任务中以竞争优势表现。并且,我们展示了一个简单的自监督预训练可以让 MAT 以很少的超参数调整就达到最新技术水平,并且 MAT 学习到的注意力权重可以从化学角度解释。