太大而无法失败?主动少样本学习引导的逻辑综合
本文提出了一种简单的方法,其几乎没有超参数或参数,并达到或甚至超过领域多个标准基准测试的性能,提供了一个新的基准,可以提出(并公平比较)新技术或改进现有方法。
Jan, 2022
研究提出了 INVICTUS,一个基于模型的离线强化学习(RL)解决方案,可自动生成一系列基于先前设计的训练数据集的逻辑化简启发式的序列,以用于芯片设计的逻辑合成。结果表明,与最先进的技术相比,INVICTUS 在合成电路的面积时延乘积(ADP)方面有显着改进,改进达到了最先进技术的 30% ,同时在运行时间方面还实现了高达 6.3 倍的降低。
May, 2023
本研究对逻辑综合的学习和搜索技术进行了彻底的研究,发现预训练代理器在面对全新设计时可能偏离轨道,从而对搜索轨迹产生不利影响。我们提出了 ABC-RL,这是一个经过精心调整的 α 参数,能够在搜索过程中熟练地调整来自预训练代理器的建议。基于与训练数据集的最近邻检索相似性分数计算得到的 ABC-RL 针对广泛的硬件设计提供了优越的综合方案。我们的发现展示了合成电路质量结果(QoR)的显著改进,与现有技术相比,提高了最高达 24.8% 的性能。此外,与当前最先进的方法相比,ABC-RL 在运行时间上实现了高达 9 倍的减少(iso-QoR)。
Jan, 2024
提出了一种基于强化学习的方法,自动化优化逻辑综合过程,通过训练 Actor Critic(A2C)智能体来实现无人工干预的设计优化,取得了较好的优化结果。
Nov, 2019
本文提出了一种新的指导程序综合的方法:在程序综合过程中根据遇到的部分解来学习启动模型,同时提出了一种称之为指导自下而上搜索的程序枚举算法来最大限度地利用模型。这种方法在基准测试中取得了非常显著的性能提升,且所生成的程序与最短解相比几乎一致。
Oct, 2020
在这项研究中,我们将通用 SyGuS 问题作为树搜索框架,并提出了一种基于蒙特卡洛树搜索 (MCTS) 的增强学习引导合成算法。我们的算法结合了学习到的策略和值函数,以及平衡探索和利用的树上置信上界。我们还介绍了一种基于现有一阶可满足性问题的反合一方法自动生成 SyGuS 的训练数据。通过这些成果,我们的工具在训练和测试集中相比基准枚举算法提高了 26 个百分点,超过了 1 CVC5 等最先进工具的表现,同时我们还公开了我们的数据集以便于进一步应用机器学习方法解决 SyGuS 问题。
Jul, 2023
本文提出了一个新颖的通用逻辑合成(GALOIS)框架,通过程序草图和定义新的基于草图的混合程序语言来引导逻辑合成,自动生成高层次和严格因果逻辑的白盒程序,GALOIS 在各种具有复杂逻辑的决策任务上展示了优越的性能、可推广性和知识可重复利用性。
May, 2022