BriefGPT.xyz
Ask
alpha
关键词
contrastive vision-language pre-trained models
搜索结果 - 1
ICLR
Lipsum-FT:使用随机文本引导的零样本模型健壮微调
大规模对比视觉 - 语言预训练模型提供了零样本模型,其可在一系列图像分类任务中取得竞争性的表现,而无需在下游数据上进行训练。最近的研究表明,对零样本模型的额外微调可以提高下游的性能,但会削弱模型对分布变化的鲁棒性。本文通过研究基于特征失真理
→
PDF
3 months ago
Prev
Next