DE-HNN:电路网表表示的有效神经模型
该研究介绍了使用强化学习和图卷积神经网络实现电路自动设计中的跨电路知识转移并在四种电路中实现了最优Figures of Merit (FoM)优化结果的方法,并对使用转移学习的情况进行了评估,证明了知识转移的重要性。
Apr, 2020
本文介绍了一种用于电路设计的监督式预训练方法,利用神经网络(NN)和图神经网络(GNN),以预测输出等效电路的直流电压,提升了新电路结构或未见过的预测任务的可适应性和样本效率。
Mar, 2022
GraPhSyM 是基于图注意力网络 (GATv2) 模型的一项工作,可从物理综合前电路网表中快速准确地估计电路延迟和面积指标,为早期电子设计自动化(EDA)阶段(如逻辑综合)提供准确的最终设计指标可见性,同时消除了运行慢的物理综合流程,实现跨阶段的全局协同优化,此外,GraPhSym 提供的快速而准确的反馈对于基于机器学习的EDA优化框架至关重要。
Aug, 2023
该论文介绍了一种用于模拟电路设计自动化的电路图神经网络(CktGNN),通过编码电路图并基于优化子程序自动生成电路拓扑结构和器件尺寸,提高了设计效率。同时,引入了一个名为OCB的公开数据集,用于评估和推广CktGNN在设计各种模拟电路方面的优越性能。该研究为一种基于学习的开源设计自动化模式在模拟电路领域铺平了道路。
Aug, 2023
本论文旨在探讨超图学习方法和基准数据集的一些悬而未决的问题,其中提出了一种新的同质性概念,探索了高阶网络结构和动态的分析框架,并引入了 MultiSet 框架重新定义 Hypergraph Neural Networks。
Oct, 2023
近年来,神经网络在解决组合优化问题方面取得了快速发展。在本文中,我们提出了NN-Steiner,这是一种新颖的混合神经-算法框架,用于计算矩形斯坦纳最小生成树(RSMT),并展示了其在处理复杂示例方面的泛化性和与现有方法的比较效果。
Dec, 2023
LightHGNN and LightHGNN$^+$ are proposed to eliminate the high-order structural dependencies of Hypergraph Neural Networks (HGNNs) during inference, reducing computational complexity and improving inference speed, achieving competitive or better performance than HGNNs and outperforming vanilla MLPs, while also showcasing their ability for latency-sensitive deployments.
Feb, 2024
HOGA是一种基于注意力机制的模型,能够在大规模、复杂电路问题中可扩展且具有泛化性,通过预先计算节点的逐跳特征并使用门控自注意力模块生成节点表示,自适应地学习不同跳之间的重要特征,因而适应不同电路结构,可在分布式环境下高效训练。在实验证明,与常规图神经网络相比,HOGA在逻辑综合后的结果质量预测方面减少了46.76%的估计误差,在复杂技术映射后的看不见门级网络列表上识别功能块方面,HOGA的推理准确率提高了10%,而HOGA的训练时间几乎与计算资源的增加成线性关系。
Mar, 2024
本研究解决了在芯片设计工作流程中关键的超图划分问题。通过引入合成划分基准,模拟真实网络特性,并对现有的顶尖划分算法与基于图神经网络的方法进行评估,揭示了它们各自的优缺点。这为VLSI超图划分提供了新的思路和方法,具有潜在的应用价值。
Sep, 2024
本研究针对电子设计自动化中逻辑综合阶段面临的数据稀缺与高阶图表示学习困难问题,提出了MTLSO多任务学习方法。通过引入辅助的二元多标签图分类任务,结合主回归任务,提升了模型的学习能力并充分利用有限的数据。实验结果表明,该方法在延迟和面积上的平均性能分别提高了8.22%和5.95%,展示了其显著的优势和潜在影响。
Sep, 2024