布线引导黑盒优化实现的宏单元布局
本文提出了一种基于 Bayesian optimization 算法的宏块布局方法,相对于强化学习等黑盒优化方法,其更具有样本效率且可以通过数据进行自适应学习。通过固定轮廓宏块摆放问题,并以半周长导线长度为目标函数衡量,实验得出了具有竞争力的性能优化算法。
Jul, 2022
该研究提出了一种利用 Google 的电路训练方法 (G-CT) 的方法,提供了一种基于学习的宏放置器,不仅支持放置矩形案例,而且遵循重要的人类设计原则,实验证明了该框架在实现功耗 - 性能 - 面积(PPA)指标上的有效性和与人工干预产生的高质量放置的可比性,并且该方法显示出解决不同宏形状和布局区域的潜力。
Nov, 2023
通过深度强化学习方法 DeepPlace 和 DeepPR,结合梯度优化和强化学习,编码输入宏单元的全局图层和本地节点层信息的多视图嵌入模型,并通过鼓励探索的随机网络蒸馏方法,有助于解决现代芯片设计过程中的放置和路由问题。
Oct, 2021
本文旨在解决机器人移动操作中基础放置优化问题。通过使用基于 Scale-like disc(SLD)表示法的工作空间表示来分离任务约束和基础放置,提出了一种多目标优化算法,将涵盖面积、操作灵活性和时间成本等目标同时考虑。实验结果表明,所优化的基础放置显著提高了任务的覆盖度和效率。
Apr, 2023
本论文提出了一种基于层次贝叶斯优化的新方法,HPC-BBO,能够自动高效地设计硬件配置并通过相应的控制器进行自动调优,从而显著减少生产周期,并在模拟六足微型机器人的设计中验证了其优越性。
May, 2019
本研究提出了一种基于 GPU 加速和 OpenROAD 基础设施的快速全局布局框架 DG-RePlAce,通过利用机器学习加速器的固有数据流和数据路径结构,实现了路由线长度减少 10%(7%)和总负预留时间减少 31%(34%),并且全局布局速度更快,总运行时间与 DREAMPlace 相当。实证研究还表明,对于机器学习加速器,相较于 RePlAce 和 DREAMPlace,在后续路由中的改进效果可能超出原始应用。
Mar, 2024
本文提出一种灵活的多目标强化学习方法 (MORL),使用单个预先训练的模型来支持具有推理时间变量权重的目标函数,并成功地将其应用于芯片布局中,有效地生成多个目标的 Pareto 前沿。
Apr, 2022
本文提出了一种基于学习的芯片布局方法,使用强化学习将芯片画布上芯片网络节点的摆放视作问题,并训练代理人生成以往未见芯片块的优化布局,最终旨在最小化能耗、性能与面积(PPA)。实验结果表明,该方法可在 6 小时内生成可与人工专家相媲美的布局。
Apr, 2020
提出了一种混合优化框架,用于解决在物理设计中的放置问题,以提高功耗和性能。该方法通过迭代扰动放置结果来有效地避免局部最优解,并在两个常用基准测试中取得了显著改进。
Feb, 2024
RIBBO 是一种从离线数据中强化学习 Black-Box Optimization 算法的方法,采用表达能力强的序列模型学习多个行为算法和任务产生的优化历史,通过集成 regret-to-go tokens 来自动生成满足用户期望遗憾值的查询点,从而在各种问题上实现了普遍良好的实证性能。
Feb, 2024