BriefGPT.xyz
大模型
Ask
alpha
关键词
semi-supervised contrastive loss
搜索结果 - 1
跨模态多任务正则化深度度量学习
本文提出了 CDMLMR 方法,该方法以多任务正则化的方式融合四元组排名损失和半监督对比损失,用于建模跨模态语义相似性;与现有方法相比,该方法不仅利用了相似性排名信息,还利用了未标记的跨模态数据,从而提高了跨模态检索准确性。
PDF
7 years ago
Prev
Next