Mar, 2024

少即是多:基于跳数的图注意力用于电路的可扩展和通用学习

TL;DRHOGA是一种基于注意力机制的模型,能够在大规模、复杂电路问题中可扩展且具有泛化性,通过预先计算节点的逐跳特征并使用门控自注意力模块生成节点表示,自适应地学习不同跳之间的重要特征,因而适应不同电路结构,可在分布式环境下高效训练。在实验证明,与常规图神经网络相比,HOGA在逻辑综合后的结果质量预测方面减少了46.76%的估计误差,在复杂技术映射后的看不见门级网络列表上识别功能块方面,HOGA的推理准确率提高了10%,而HOGA的训练时间几乎与计算资源的增加成线性关系。