BriefGPT.xyz
大模型
Ask
alpha
关键词
weakly supervised pre-training
搜索结果 - 2
CatLIP: 在 Web 规模的图文数据上 2.7 倍速度预训练的 CLIP 级别视觉识别准确性
通过对网络规模的图像文本数据进行弱监督预训练,本论文提出了一种消除对比损失中成对图像和文本相似性计算的需要的方法,在训练速度上取得了显著的 2.7 倍加速。通过广泛的实验证明,该方法在各种视觉任务中具有高质量的表征。
PDF
2 months ago
ECCV
Language Matters: 一种弱监督的视觉 - 语言预训练方法用于场景文字检测和定位
本文提出了一种弱监督的预训练方法 oCLIP,该方法通过联合学习视觉和文本信息来获取有效的场景文本表示,并能从弱注释文本中学习,可以有效地应对 OCR 任务。实验证明,该方法在多个公共数据集上都优于现有的预训练技术。
PDF
2 years ago
Prev
Next