关键词cross-task knowledge transfer
搜索结果 - 2
- CLiMB: 用于视觉语言任务的持续学习基准
本研究介绍了 CLiMB 基准测试,并提出了一种改进的视觉 - 语言 Transformer (ViLT) 模型,用于同时处理多模态任务和单模态任务的连续学习问题。通过实验发现,虽然常见的连续学习方法可以缓解多模态任务学习中的遗忘问题,但并 - 神经程序元归纳
该研究旨在通过跨任务知识转移的两种方法 —— 投资组合适应和元编程归纳,以提高节约数据的编程归纳的效率,并针对一个新的基准程序进行广泛的实验评估。实验评估结果表明,这两种方法明显优于那些不使用知识转移的编程归纳基准方法,并分析了它们的表现最