关键词explicit knowledge transfer
搜索结果 - 2
- EMNLP变压器语言模型中的结构概念是否普遍?迈向可解释的跨语言泛化
利用语言的语法方面作为测试基础,我们的分析揭示了对于仅编码器和仅解码器的大型语言模型,语言的结构概念空间之间具有高度的对齐度。然后,我们提出了一种基于元学习的方法来学习不同语言之间的概念空间对齐,从而实现零样本学习和少样本学习,并增进了对跨 - 弱监督代码生成的显式知识转移
本研究提出了一种显式知识转移(EKT)方法,利用大型语言模型(LLMs)的少量学习能力来创建 NL-code 对,过滤正确性并对学生模型进行微调,以实现在数学问题求解中生成代码解决方案的任务。实验结果表明,使用 EKT 训练的 GPT-Ne