Feb, 2020
分子注意力变换器
Molecule Attention Transformer
Łukasz Maziarka, Tomasz Danel, Sławomir Mucha, Krzysztof Rataj, Jacek Tabor...
TL;DR通过在 Transformer 中使用原子间距离和分子结构来扩充注意力机制,我们提出了 Molecule Attention Transformer(MAT)神经网络模型,其可以在一系列不同的分子预测任务中以竞争优势表现。并且,我们展示了一个简单的自监督预训练可以让 MAT 以很少的超参数调整就达到最新技术水平,并且 MAT 学习到的注意力权重可以从化学角度解释。