关键词efficient transfer learning
搜索结果 - 4
- 条件下的原型修正提示学习
利用大规模的预先训练的视觉语言模型,通过高效的迁移学习方法解决基类过拟合问题,提出了一种条件原型纠正提示学习方法,有效地纠正了基类示例的偏差并增加了有限数据量,在少样本分类和从基类到新类的泛化任务中实现了最先进的性能。
- 大型视觉语言模型的少样本自适应研究
通过引入适应真实场景需求的新方法,我们综合评估了一个广泛的数据集和场景,发现其在实践中始终优于现有技术,同时作为更高效的替代方案。
- GraphAdapter: 用双重知识图调整视觉语言模型
通过建立双重知识图,将文本和视觉语义 / 类别之间的关联性进行建模,利用适配器样式的调整策略,在少量数据条件下对视觉 - 语言模型进行调优,提高下游任务的分类器的效果。
- CVPR针对视觉语言模型的任务残差调节
本篇论文提出了一种名为 Task Residual Tuning 的新的视觉语言模型的高效调整方法,其中通过保留原有分类器权重的方式,针对目标任务调整一组先独立参数作为原有分类器的残差,以实现可靠的先验知识保存和灵活的任务特定知识探索,并在