CodePrompt: 通过提示学习提升源代码相关分类的知识特征
本文介绍了基于知识拓展的 Prompt-learning 方法来解决短文本分类中的标签扩展问题,并在三个著名数据集上实验,结果比其他方法均取得了显著提高。
Feb, 2022
本文提出了一种用于代码摘要的新型提示学习框架,称为 PromptCS,该框架训练了一个能够生成连续提示的提示代理,以释放大语言模型在代码摘要中的潜力,相比于人工编写的离散提示,连续提示更易于大语言模型理解。PromptCS 在 CodeSearchNet 数据集上的评估结果表明,优于所有四个广泛使用的度量标准的指导学习方案,并且在某些基础大语言模型上,例如 CodeGen-Multi-2B 和 StarCoderBase-1B 和 - 3B,甚至优于任务导向的微调方案。重要的是,PromptCS 的训练效率比任务导向的微调方案更快,在较大的大语言模型上具有更明显的优势。人工评估的结果表明,与基准相比,PromptCS 能够生成更好的摘要。
Dec, 2023
我们研究了使用编程提示和文本提示对三种流行的 GPT 模型 (davinci、code-davinci-002 和 text-davinci-002) 在更广泛的任务选择 (例如 QA、情感、摘要) 中的表现,结果表明,在很少例外的情况下,编程提示并没有始终优于文本提示。同时,我们还展示了代码提示的样式对某些但不是所有任务的性能有很大的影响,并且微调文本指令可以提高代码提示的相对性能。
Apr, 2023
本论文提出了一种检索增强的提示学习方法(RePrompt),通过引入检索机制来对下游任务进行知识表示的缓存,该方法在 15 个视觉数据集上进行了广泛实验,包括 11 个在少样本设置下的下游任务和 4 个域泛化基准,在处理领域差异增加时取得了明显的改进。
Jun, 2023
本研究提出了一种叫做 code prompting 的新型神经符号提示方法,通过触发代码作为中间步骤,以实现符号和算术推理任务一直面对的语言及理解难题。经过对七项广泛使用的基准测试进行实验验证,研究者发现 Code Prompting 方法通常优于 Chain-of-Thought(CoT)Prompting。他们还考虑了代码提示和 CoT 提示的融合来结合两者的优点。最后,通过实验证明,代码注释及其位置如何影响代码提示。
May, 2023
本研究探讨通过使用伪代码指令进行提示是否有助于提高预训练语言模型的性能,发现使用伪代码指令可以提高分类任务的 F1 分数和总体 ROUGE 分数,结论表明伪代码提示可以改善预训练 LM 的性能。
May, 2023
本文介绍了一种新颖的源代码嵌入技术,精心设计了一个基于 Python 的大规模数据集和一个开源的基准测试套件,旨在提高源代码的理解和分类准确度。实验结果表明,该方法与 Word2Vec、BiLSTM、Transformer 等现有方法相比,在减少培训时间和标注数据的情况下可以获得更高的准确度。
Dec, 2019
本文提出了 SynCoBERT—— 一种语法引导的,多模态对比预训练方法,旨在更好地表示代码,其中设计了两种新的预训练目标 —— 标识符预测和 AST 边缘预测,并提出了多模态对比学习策略来最大化不同模态之间的互信息。经过广泛的实验,SynCoBERT 在与相同的预训练语料库和模型大小进行比较时,提高了与代码智能相关的四个下游任务的最新性能。
Aug, 2021
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
本文提出了一种新的基于提示的学习方法 LabelPrompt,用于关系分类任务,通过定义附加令牌来表示关系标签,并构建提示模板方法,以及设计一个实体感知模块和注意查询策略来解决模型中的一些挑战,极大地提高了在缺乏标注数据情况下利用提示学习的适应能力,特别是在少样本场景中的表现超过了其他几种方法。
Feb, 2023