ProgSG:电子设计自动化程序跨模态表示学习
AutoHLS 是一种将深度神经网络(DNN)与贝叶斯优化(BO)相结合的新型框架,用于加速高级综合(HLS)硬件设计优化,通过整合 DNNs 来预测在给定 FPGA 资源预算内的可合成性,实验证明其在探索时间上可达到 70 倍的加速。
Mar, 2024
ProGraML 是一种使用低级别、语言无关和可移植格式的新颖基于图的程序表示,其中包含能够对整个程序或每个顶点执行分类任务的机器学习模型,其提供了一种通用的程序表示,使可学习的模型能够执行优化所必需的程序分析类型,并在传统编译器分析任务、异构设备映射和程序分类等高级任务方面取得了具有以下优势的最新性能:94.0 F1 评分
Mar, 2020
本文旨在探索自动生成指定语言中的程序,依据输入输出行为生成程序,我们提出了一种新的方法来控制和评估合成数据分布的偏差,通过在 Karel 和小型计算器 DSL 上的实验表明,使用这些分布训练深度网络可以提高跨分布的泛化性能。
Dec, 2019
本文介绍了神经引导演绎搜索 (NGDS) 技术,应用于编写用户意图程序的问题,结合了符号逻辑技术和统计模型,通过演绎搜索框架来学习神经网络组件,以找到最适合提供的规范的程序,并在真实客户场景中验证其实用性。
Apr, 2018
通过使用 Syntax Graph Retrieval Augmented Code Generation (CodeGRAG) 模型,可以提高大型语言模型在单轮代码生成任务中的性能,填补编程语言和自然语言之间的差距,并使用外部结构化知识作为不同编程语言之间的桥梁,从而显著提高语言模型的代码生成能力。
May, 2024
该论文提出了一种名为 Vaegan 的新方法,利用生成式机器学习生成足够强大以支持复杂系统级高级综合设计空间探索实验的合成数据,该方法使用变分自动编码器(VAE)和生成对抗网络(GAN)来进行任务,并使用先进的数据集和度量标准对方法进行评估,与之前的工作进行比较,表明 Vaegan 可以有效生成与真实数据分布接近的合成高级综合设计空间数据。
Apr, 2024
本篇论文提出一种利用符号回归技术和 FPGA 实现的机器学习模型优化算法,成功地将一个由 3 层神经元组成的模型大幅优化,准确率超过 90%,执行时间缩短了 13 倍。
May, 2023
本文介绍一种基于 Tensorflow 的开源工具流,可以将数值计算模型映射到可合成硬件,从而生成深度神经网络。这种工具流使用户可以用很少的 Python 代码生成计算深度神经网络。
Jul, 2018
本文提出了一种语法和领域感知的程序翻译模型 SDA-Trans,利用语法结构和领域知识来增强跨语言转移能力,采用较小规模的无监督语料库进行训练,实验结果表明 SDA-Trans 在 Python、Java 和 C++ 之间的函数翻译任务上表现优异,尤其是对于需要翻译看不见语言的情况。
Feb, 2023