阅读行文中 -- 从 READMEs 中提取功能
本文介绍了一个使用 ChatGPT 和 C2F-FAR 提出的混合抽取和摘要文本的流程,可以用于长篇文章和书籍。机器生成的摘要可以与人工摘要在自动化评估指标下表现得一样好,但在文本连贯性、忠实度和风格等方面仍存在问题。因此,我们认为 ChatGPT 还不够成熟。这项工作为 NLP 研究人员提供了有关 ChatGPT 在文本摘要方面的能力与实践需求的重要信息,促进进一步研究。
Jun, 2023
本文介绍了关于文本摘要的各种方法,包括提取式和抽象式,并探讨了大型语言模型在此方面的应用潜力。作者以四个数据集为例,展示了 ChatGPT 生成的摘要与人类参考的差异,并发现 ChatGPT 在摘要性能上可以与传统的微调方法媲美。该研究为各种文本摘要任务开辟了新方向,提供了有价值的见解。
Feb, 2023
通过评估源代码的可重现性来支持论文的可重现性评价,并提出了一个基于节相似性的系统,相较于层次转换模型,该系统在解释性方面具有优势。
Oct, 2023
大语言模型在代码摘要任务方面,特别是代码生成和摘要具有很高的性能。本文发现,这些模型在每个示例上的性能往往取决于代码和对应参考自然语言描述之间的(子词)标记重叠量。此标记重叠主要出现在代码的函数名称中,并通过移除函数名称与移除代码结构来比较这些模型的相对性能。另外,使用 BLEU 和 BERTScore 等多个评估指标对此问题的洞见非常有限,因为这些指标高度相关。
Apr, 2024
使用知识蒸馏相关的方法,我们训练了一个开源模型,以 GPT-3.5 生成的样本输出为基础,该模型的参数规模为 350m,足够小以在单个 16gb GPU 上运行,并在评估中展示其足够大,以在这个任务上模仿 GPT-3.5。
Aug, 2023
这篇研究论文使用了各种不同的大型语言模型,包括 MPT-7b-instruct,falcon-7b-instruct 和 OpenAI ChatGPT text-davinci-003 模型,通过不同的超参数对生成的摘要进行评估,并发现 text-davinci-003 模型的表现优于其他模型。该研究还分析了 CNN Daily Mail 和 XSum 两个不同的数据集,旨在提供对大型语言模型在不同数据集上应用时性能的全面理解。这项工作为对 NLP 领域的研究人员和从业者提供了有价值的见解,同时也为开发应对各种业务挑战的高级生成式人工智能应用奠定了基础。
Oct, 2023
本文提出了代码解释生成任务,通过多阶段优化和基线模型的 fine-tuning 使得模型在生成的解释中包含更多实现级别的选择,并在实验中展示了一个经过改进的训练数据集可以比较人工撰写的 docstring 相媲美,这一任务可以极大地受益于软件维护和编程教育。
Nov, 2022
本研究提出了一种使用自然语言处理技术通过非官方文档生成 API 和方法摘要的自动化方法,该方法可以作为指导开发人员进行软件开发和维护任务的补充来源。
Aug, 2022
本研究提出了一种新的神经网络模型,它可以将源代码的单词和代码结构(AST)结合起来,从而能够生成准确的注释文档。与传统的基于模板的系统不同,该模型可以更好地学习代码结构,即使程序缺乏内部文档,也可以在演示中提供连贯的描述,并在 SE 文献和 NLP 文献中得到进一步的改进和应用验证。
Feb, 2019
最近,使用深度学习进行软件工程方面的任务,包括代码生成和摘要等,出现了越来越多的活动。尤其是最新的编码大型语言模型在这些问题上表现良好。在本技术报告中,我们旨在回顾这些模型在代码解释 / 摘要方面的性能,同时调查它们基于自然语言描述的代码生成能力。
May, 2024