Aug, 2022

学得越多未必越好:视觉与语言任务中的知识可迁移性

TL;DR研究在多模态任务中知识转移性,以探讨是否将不同任务的数据集合并来训练视觉 - 语言模型一定能提高它们的整体表现。通过对 12 项视觉 - 语言任务进行数百次交叉实验分析,发现不是所有的知识都能有益于相关任务,在同一组任务中却容易相互改进,而数据集的大小和预训练阶段也对知识转移的效果有重要影响。