Mar, 2022

FastFold: 将AlphaFold的训练时间从11天缩短至67小时

TL;DR本文提出了FastFold,它是AlphaFold模型的有效实现,使用Dynamic Axial Parallelism和Duality Async Operations提高模型并行性的扩展效率,还提出AutoChunk来自动确定块策略以减少推理期间的内存成本,实验结果表明,FastFold将总的训练时间从11天缩短至67小时,在长序列推理中达到了7.5-9.5倍的加速,此外,我们将FastFold扩展到了512个GPU,实现了6.02 PetaFLOP/s的总吞吐量和90.1%的并行效率。