BriefGPT.xyz
大模型
Ask
alpha
关键词
backward transfer
搜索结果 - 2
语言转变下的持续学习研究
对于语言模型的预训练,更新模型而不是完全重新训练,可以在新数据不断增加时提供显著的收益。本文研究了在语言转移的情况下,当新的数据来自新的语言时,更新语言模型的利与弊。通过将挪威语和冰岛语等数据逐步添加到单语英语语言模型中,我们研究了不同模型
→
PDF
8 months ago
混合脉冲神经网络的持续学习中的神经通路自适应重组
基于大脑启发的自适应神经路径重组的持续学习算法,在增量任务中通过自组织调控网络资源以有效应对多样化的认知任务,表现出卓越的性能、能量消耗和内存容量。具备学习更复杂任务、整合过去学习知识以及自我修复能力的特点。
PDF
10 months ago
Prev
Next