AISYN: 基于强化学习的人工智能逻辑综合框架
提出了一种基于强化学习的方法,自动化优化逻辑综合过程,通过训练 Actor Critic(A2C)智能体来实现无人工干预的设计优化,取得了较好的优化结果。
Nov, 2019
本研究对逻辑综合的学习和搜索技术进行了彻底的研究,发现预训练代理器在面对全新设计时可能偏离轨道,从而对搜索轨迹产生不利影响。我们提出了 ABC-RL,这是一个经过精心调整的 α 参数,能够在搜索过程中熟练地调整来自预训练代理器的建议。基于与训练数据集的最近邻检索相似性分数计算得到的 ABC-RL 针对广泛的硬件设计提供了优越的综合方案。我们的发现展示了合成电路质量结果(QoR)的显著改进,与现有技术相比,提高了最高达 24.8% 的性能。此外,与当前最先进的方法相比,ABC-RL 在运行时间上实现了高达 9 倍的减少(iso-QoR)。
Jan, 2024
研究提出了 INVICTUS,一个基于模型的离线强化学习(RL)解决方案,可自动生成一系列基于先前设计的训练数据集的逻辑化简启发式的序列,以用于芯片设计的逻辑合成。结果表明,与最先进的技术相比,INVICTUS 在合成电路的面积时延乘积(ADP)方面有显着改进,改进达到了最先进技术的 30% ,同时在运行时间方面还实现了高达 6.3 倍的降低。
May, 2023
通过使用强化学习方法,将其整合到量子传递工作流中,实现了量子电路的综合和路由优化,且在速度和优化的效果上明显超越其他方法,在实际的量子传递过程中显示出很高的实用性。
May, 2024
本文提出了一个新颖的通用逻辑合成(GALOIS)框架,通过程序草图和定义新的基于草图的混合程序语言来引导逻辑合成,自动生成高层次和严格因果逻辑的白盒程序,GALOIS 在各种具有复杂逻辑的决策任务上展示了优越的性能、可推广性和知识可重复利用性。
May, 2022
本文提出了一种新的程序合成方法,将寻找最优程序的问题转化为基于强化学习的马尔科夫决策过程, 并将这种方法应用于浮点数 RISC-V 汇编语言的子集上,并结合基于搜索技术的优先搜索树,证明了我们的方法相较于其他基线方法的优越性
Jun, 2018
本研究提出使用强化学习基于状态特征学习启发式启发式方法且优化了 Deep Q-Network,以用于解决离散事件系统中的无阻塞属性,实现在小规模问题上的学习推广到更大规模问题实例,结果表明其效果更好。
Oct, 2022
本研究提出了一种新颖的可完全解释的神经方法来合成组合逻辑电路,其特点是可以扩展到归纳情形并成功地学习了多种算术、位运算和信号路由操作,并且对于合成逐渐增大的实际电路始终产生良好的结果。
Oct, 2022
本文提出了一种名为 SYENS 的新型逻辑引导交易框架,它通过程序合成和层次化交易策略在动态股市中稳定地行为。实验证明,SYENS 在现金交易和保证金交易设置下,在累积收益和最大回撤方面都明显优于基准。
Oct, 2023