零 - shot 下注意力汇聚增强的大型语言模型的 RTL 代码生成
我们提出了一个名为 RTLLM 的开源基准,用于生成具有自然语言指令的设计 RTL,并使用一个名为 self-planning 的易于使用但效果显著的提示工程技术来提高 GPT-3.5 在我们提出的基准中的性能。
Aug, 2023
研究发现在 LLMs 生成代码时,它们所关注的自然语言描述与人类程序员的关注点不一致,而一个基于扰动的计算方法的注意力最大程度地与人类注意力一致,说明我们需要更符合人类关注点的 LLMs 以提高代码生成的可解释性和程序员的信任度。
Jun, 2023
提出了一个新的框架,通过集成传统自然语言处理工具,从自然语言需求文本中提取关键词短语,并生成目标代码以解决需求,从而有效提高代码大型语言模型的性能。通过创建一个新的多自然语言代码生成基准测试集,实验证明了该框架的有效性。
Jan, 2024
我们提出了一种将指导训练的大型语言模型 (LLM) 与端到端自动语音识别 (ASR) 相结合的新方法。该方法利用 LLMs 的零 - shot 能力来提取语言信息,从而改善 ASR 性能,其中包括纠正 ASR 假设中的语法错误,并利用嵌入的语言知识进行端到端 ASR。实验证明,所提出的集成方法能够取得良好的性能改进,并且我们的方法在 LLM 基于重排序时得到了很大的好处。
Sep, 2023
通过优化注意力机制来增强大型语言模型的推理能力,特别是对非科学、技术、工程和数学(STEM)问题的推理能力,通过重新平衡注意力分布来提高模型的抽象能力并探索注意力模式在推理中的作用,为更强大和多功能的语言模型铺平道路。
Mar, 2024
通过引入关注点卸载的概念,将昂贵的计算优化加速器与便宜的内存优化设备相结合,以提高大型语言模型的效率和成本效益。我们开发了 Lamina 推理系统,实验证明,相较于同质解决方案,Lamina 可以提供每美元 1.48 倍至 12.1 倍的更高预计吞吐量。
May, 2024
通过优化 LLM 的核心自然语言模型和重新组织 HDL 代码数据集,提高生成精确且高效 ASIC 设计的模型能力,从而简化和加速复杂电路设计的 LLM 辅助框架,以满足 HDL 编码的复杂需求并优化 ASIC 开发流程。
Mar, 2024
探索使用大型语言模型(LLMs)自动生成硬件描述代码的潜力,以支持和增强高效的神经形态计算架构的开发,并通过三个案例研究验证其可行性和实施性。
May, 2024
通过引入蒙特卡罗树搜索,并将其与自动转换器解码算法相结合,以解决现有大型语言模型在寄存器传输级代码生成中遇到的问题,从而实现能够生成可编译、功能正确且功耗性能区域(PPA)优化的代码。经实证评估,我们的技术在 RTL 代码集上通过对细调的语言模型进行评估,相对于仅使用提示的方法,一直能够生成功能正确的代码,并有效解决了朴素大型语言模型的 PPA 非感知缺陷。对于由最先进的大型语言模型(16 位加法器)生成的最大设计,我们的技术可以在延迟面积乘积方面实现 31.8% 的改进。
Feb, 2024
部署大型语言模型(LLMs)在流式应用中的一个研究论文,介绍了两个主要挑战和一个有效的解决方案 StreamingLLM,用于长文本的流式部署,能够在无需微调的情况下实现 LLMs 的稳定和高效的语言建模。
Sep, 2023