ADO-LLM: 基于上下文学习的模拟设计贝叶斯优化
该论文介绍了一种名为 LLANA 的框架,利用大型语言模型来增强 Bayesian Optimization(BO)技术,通过利用 LLM 的 few-shot learning 能力更高效地生成与模拟设计相关的参数约束,从而实现与最先进的 BO 方法相媲美的性能,并且通过 LLM 的文本理解和学习效率更有效地探索模拟电路设计空间。
Jun, 2024
LLAMBO 是一种将大型语言模型(LLM)与贝叶斯优化(BO)结合的方法,通过在自然语言中提出有前景的解决方案,利用上下文理解、少样本学习能力和 LLM 的领域知识来增强基于模型的 BO 的各个组件,特别是在稀疏的观测阶段,LLAMBO 在零样本热启动、代理模型和候选样本的改进方面表现出有效性。
Feb, 2024
大型语言模型在分子空间中进行 Bayesian 优化的实验表明,只有通过预训练或领域特定数据的微调,才能使 LLMs 对于分子的 Bayesian 优化具有实用性。
Feb, 2024
高成本模拟一直是实际模拟 / 混合信号设计自动化的瓶颈。我们提出了一种基于学习的算法,能够使用少量数据进行训练,因此适用于模拟成本高的任务。我们的高效算法解决了后布局性能优化问题,同时也解决了原理图级别调整问题。为了实现高效优化,我们使用贝叶斯神经网络作为回归模型来近似电路性能。对于布局感知的优化,我们将问题看作多保真度优化问题,并通过利用廉价评估结果的相关性来提高效率。我们提供了三个测试案例来证明我们算法的高效性。测试结果表明,我们的方法比传统基准和先进算法更高效。
Nov, 2023
提出一种新颖的受限贝叶斯优化(BO)算法,用于优化侧向扩散金属氧化物半导体(LDMOS)晶体管的设计过程,实现目标击穿电压(BV)。通过引入拉格朗日乘子,将受限 BO 问题转化为传统 BO 问题,并将拉格朗日函数设置为 BO 的目标函数。利用具有可变拉格朗日乘子的自适应目标函数,可以解决需要耗费昂贵评估的约束 BO 问题,无需额外的替代模型来近似约束条件。该算法使设备设计师能够在设计空间中设置目标 BV,并自动获得满足优化 FOM 和目标 BV 约束的设备。利用该算法,还在定义的设计空间内探索了 30-50V 范围内设备 FOM 的物理限制。
Aug, 2023
大语言模型(LLMs)在推断过程中常常过于自信,尤其是当它们适应具有有限数据的下游领域特定任务时。本文通过在 LLMs 训练后采用近似贝叶斯估计的方法来解决这个问题,从而使其能够量化不确定性。然而,这种训练后方法的性能受训练期间学习的参数严重限制。在本文中,我们超越了训练后的贝叶斯化,并提出了一种名为贝叶斯低秩适应的反向传播(BLoB)的算法,该算法在整个微调过程中持续和联合调整 LLM 参数的均值和协方差。我们的实证结果验证了 BLoB 在广义化与不确定性估计方面的有效性,同时在分布内和分布外数据上进行评估。
Jun, 2024
本文系统研究了大型语言模型在电子设计自动化领域的应用,分类研究了助理聊天机器人、硬件描述语言和脚本生成,以及硬件描述语言验证与分析三个方面,并强调了未来研究方向,重点关注逻辑综合、物理设计、多模态特征提取和电路对齐等领域。
Dec, 2023
LaMBO 是一种新的 Bayesian optimization 方法,采用了联合训练的方法,结合 Denoising Autoencoder 和多任务 Gaussian Process Head 进行多目标优化,以实现在离散高维空间中进行生物序列设计。
Mar, 2022
RobustAnalog 是一个稳健的电路设计框架,将不同变化下的电路优化作为一组任务,并利用任务之间的相似性和竞争减轻实现了高效的多任务训练,从而可以快速生成满足不同限制条件的电路参数,相比于其他算法,能显著减少 14-30 倍的优化时间,为应对各种实际硅条件提供了可行的方法。
Jul, 2022
将 AI 系统与用户的兴趣相协调需要理解和融入人类复杂的价值观和偏好。我们介绍了一个名为 OPEN 的框架,它利用贝叶斯最优实验设计(BOED)指导选择信息丰富的问题,并利用语言模型(LM)提取特征和将抽象的 BOED 查询转化为自然语言问题。通过将 LM 的灵活性与 BOED 的严谨性结合起来,OPEN 能够在保持适应性于现实世界领域的同时优化查询的信息量。用户研究中显示,OPEN 在偏好获取方面优于现有的基于 LM 和 BOED 的方法。
Mar, 2024