BriefGPT.xyz
大模型
Ask
alpha
关键词
contrastive cross-lingual cross-modal pre-training
搜索结果 - 1
ACL
RC3:正则化对比交叉语言交叉模态预训练
该研究提出了 RC^3 pre-training 方法,该方法利用弱对齐的多语言图像 - 文本对进行跨语言、跨模态的视觉 - 语言预训练,并在下游的多模态任务中表现出更强的效果。
PDF
a year ago
Prev
Next