迭代还是创新?针对代码优化的问题导向视角
本文探讨了大型语言模型对编写和重构性能更好的代码方面的能力,通过收集大量的程序优化历程以评估和提高大型语言模型的能力,并使用优化器 CODEGEN 推出性能更好的代码以帮助程序员编写有效的代码。
Feb, 2023
通过引入强化学习的方法,将代码 LMM 的输出与性能对齐,提高生成代码的期望加速比,并在一组基准任务中展示了 0.9 至 1.6 倍的串行代码速度提升和 1.9 至 4.5 倍的 OpenMP 代码速度提升。
Apr, 2024
评估 LLM 在各种任务和数据大小上的优化能力,并引入了三个不同的指标来全面评估任务性能。通过应用这些指标,我们观察到 LLM 在处理小规模样本时表现出很强的优化能力,但其性能受到数据大小和值等因素的显著影响,强调了对 LLM 的优化任务领域进行进一步研究的重要性。
Oct, 2023
该论文通过比较分析两种先进的大型语言模型(GPT-4.0 和 CodeLlama-70B)与传统优化编译器在代码优化方面的能力和局限性,以及引入了一套挑战性的优化模式基准和用于评估生成代码性能和正确性的自动机制,发现虽然大型语言模型有超越当前优化编译器的潜力,但在大型代码上常常生成不正确的代码,需要自动化验证方法,其中 CodeLlama-70B 在两种大型语言模型中表现最佳,最大加速能达到 2.1 倍,而 CETUS 在优化编译器中表现最佳,最大加速能达到 1.9 倍。同时,两种提示方法(思考链和指令提示)没有显著差异。
Jun, 2024
该研究论文探讨了大型语言模型在零样本优化方面的能力,介绍了一种基于语言模型的进化优化方法(LEO),并通过数值示例验证此假设的有效性。同时,论文还提出使用大型语言模型时需要小心处理其想象性和产生幻觉的特点,并给出了获取可靠答案的实用指南以及讨论了方法局限和潜在的研究方向。
Mar, 2024
我们提出了一个针对大型语言模型的成本效益查询分配问题的框架,名为 OptLLM,通过使用多标签分类模型进行性能预测,生成一系列优化解决方案,旨在满足用户的预算限制和性能偏好,包括最大化准确性和最小化成本。OptLLM 在各种类型的任务上进行了广泛的实验,包括文本分类、问答、情感分析、推理和日志解析,实验证明 OptLLM 在降低成本 2.40% 至 49.18% 的同时实现与最佳大型语言模型相同的准确性,相比其他多目标优化算法,OptLLM 在相同成本下提高 2.94% 至 69.05% 的准确性或节省 8.79% 至 95.87% 的成本并保持最高可达准确性。
May, 2024
庞大的语言模型 (Large Language Models) 已经在机器学习研究领域引发了一股创新浪潮,在强化学习、机器人学和计算机视觉等多个领域产生了实质性影响。然而,基于黑箱优化的实验设计领域受到的这种范式转变影响较小,尽管将 LLM 与优化相结合呈现出一个独特而广泛的探索空间。本文呈现了关于基于序列的基础模型构成黑箱优化领域的框架,并组织了这些模型与先前文献的关系。我们讨论了基础语言模型能够革新优化的最有前景的方式,包括利用自由文本中蕴含的大量信息来丰富任务理解、利用高度灵活的序列模型例如 Transformers 来设计出更优的优化策略,并提高对以前未见的搜索空间的性能预测。
May, 2024
利用对最近的大型语言模型进行了代码测试的详尽分析,本研究展示了这些模型的一系列有趣性质,并展示了如何改进大型语言模型的程序测试能力,通过利用生成的测试用例来提高合成程序的质量,相较于 GPT-3.5-turbo 和最新的最先进技术,我们的方法在 HumanEval + 上的代码通过率分别提高了 11.77% 和 4.22%。
Oct, 2023
基于大规模语言模型的代码生成领域的综述,介绍了对 LLMs 在代码生成领域的最新进展、数据处理、性能评估、实际应用,对学术与实践之间的差距进行了分析,提出了关键挑战和机遇,并提供了一个资源网站以记录和传播该领域的最新进展。
Jun, 2024