BriefGPT.xyz
Ask
alpha
关键词
layer-wise pre-trained representations
搜索结果 - 1
面向预训练代码模型的高效微调:实验研究及其发展方向
该研究通过分层预训练表示的实验研究发现了不同层数与源代码信息的关系,从而提出了 Telly 技术,通过层冻结来有效地微调预训练代码模型,从而降低了学习参数和时间成本。
PDF
a year ago
Prev
Next