BriefGPT.xyz
大模型
Ask
alpha
关键词
few-shot finetuning
搜索结果 - 2
探索大型语言模型对代码分析中的分布式转换
通过研究两个大型语言模型 CodeT5 和 Codex 在代码领域外具有的一般化能力,我们发现多任务学习与少许训练数据的微调相结合的方法能够很好地适应不同域的代码摘要和生成需求。
PDF
a year ago
EMNLP
Few-shot 基于提示微调中避免推断启发式方法
本文研究表明,在句子对分类任务中,虽然预训练语言模型提供了低数据环境下的优势,但基于提示的微调模型仍然存在使用基于词汇重叠的推理启发式的共同缺陷,加入保留预训练权重的正则化可以缓解这种破坏性的微调倾向,并在三个挑战数据集上显示了可预期的改进
→
PDF
3 years ago
Prev
Next