CIRCUITSYNTH: 利用大型语言模型进行电路拓扑综合
本文介绍了一种用于射频电路的功能建模方法FuNToM,借助两端口分析方法和神经网络来减少训练数据量和后布局建模的时间,结果显示相对于现有方法,FuNToM能够减少训练数据量2.8倍至10.9倍,并且减少后布局建模训练集收集时间176.8倍至188.6倍。
Aug, 2023
该论文介绍了一种用于模拟电路设计自动化的电路图神经网络(CktGNN),通过编码电路图并基于优化子程序自动生成电路拓扑结构和器件尺寸,提高了设计效率。同时,引入了一个名为OCB的公开数据集,用于评估和推广CktGNN在设计各种模拟电路方面的优越性能。该研究为一种基于学习的开源设计自动化模式在模拟电路领域铺平了道路。
Aug, 2023
本文系统研究了大型语言模型在电子设计自动化领域的应用,分类研究了助理聊天机器人、硬件描述语言和脚本生成,以及硬件描述语言验证与分析三个方面,并强调了未来研究方向,重点关注逻辑综合、物理设计、多模态特征提取和电路对齐等领域。
Dec, 2023
通过预测下一个逻辑门,使用基于Transformer的神经模型对电子设计任务进行了改进,取得了显著的性能提升,并保持了严格的等效性约束。
Mar, 2024
本文提出了用于数字ASIC设计的LLMs的目标策略,改善了LLMs生成HDL代码的可靠性和准确性,并详细介绍了一个基于LLMs开发的简单三相脉宽调制发生器项目的实际示范,展示了LLMs增强数字ASIC设计的潜力。
Apr, 2024
通过Python代码生成的AnalogCoder是无需训练的大型语言模型代理,能够自动校正设计模拟电路并以高成功率完成设计,同时还提供电路工具库用于构建复合电路,实验证明AnalogCoder在模拟电路设计任务上优于其他基于LLM的方法,能够显著提高芯片设计过程的效率。
May, 2024
该论文介绍了一种名为LLANA的框架,利用大型语言模型来增强Bayesian Optimization(BO)技术,通过利用LLM的few-shot learning能力更高效地生成与模拟设计相关的参数约束,从而实现与最先进的BO方法相媲美的性能,并且通过LLM的文本理解和学习效率更有效地探索模拟电路设计空间。
Jun, 2024
提出了一种新颖高效的方法,结合人工设计专家的经验,利用大规模语言模型(LLM)的自然语言和推理能力,以ReAct提示为支持,逐步优化细胞布局的性能、功耗和面积(PPA),并调试布线可行性。在2nm的顺序标准电池基准上,所提出的方法不仅能够减小平均细胞面积4.65%,还能够修复布局设计中的可调度性问题。
May, 2024
该研究综述了针对大型语言模型(LLMs)的挑战以及提高系统效率的最新进展和研究方向,包括算法级加速技术、LLM硬件与软件协同设计策略、LLMs加速器编译方法以及利用LLMs辅助电路设计的方法。通过这些工作,旨在为LLMs在各种应用中实现更高效、可扩展的部署铺平道路。
Jun, 2024
本研究解决了现有模拟电路自动合成方法在转移性和可重用性上的局限性,通过提出基于指定规范的模拟电路生成任务,介绍了一个简单有效的变分自编码器模型CktGen。实验结果表明,该方法在开放电路基准测试中相较于现有先进方法显著提升了性能。
Oct, 2024