关键词pre-training and fine-tuning
搜索结果 - 3
- 预训练语音模型的高效适配器调优用于自动说话人验证
通过在预先训练的模型中插入轻量级适配器模块,将自监督语音模型适应到说话人验证任务中,我们提出了一个高效的适配器框架。实验结果表明,该框架在更新仅 5% 的参数的情况下,超过了微调和其他参数高效的迁移学习方法,实现了卓越的性能。
- 多视图图对比学习的提示调优
我们提出了一种多视角图对比学习方法,并为其设计了提示调整方法,以缩小预训练和下游任务之间的差距。
- 参数高效的长尾识别
通过引入 PEL 方法,该研究通过少于 20 个时期的微调,无需额外数据即可适应长尾识别任务,并通过在分类器初始化中采用 CLIP 文本编码器的新颖技术解决了过度拟合问题,从而持续优于之前的最佳方法。