Sep, 2021

EfficientCLIP: 基于集成自信学习和语言模型的高效跨模态预训练

TL;DR本文提出了 EfficientCLIP 方法,通过集成自信度学习来获取数据噪声较少的子集,并利用额外的丰富的非配对单模态文本数据来增强文本分支的泛化能力,从而实现了仅使用 CLIP 和 WenLan 的 1/10 培训资源就能达到中文跨模态检索任务的最优表现,并对文本检索和文本分类等单模态任务表现出良好的泛化能力。