BriefGPT.xyz
Ask
alpha
关键词
contrastive fine-tuning
搜索结果 - 3
MIMIC:蒙面图像预训练并混合对比细调用于面部表情识别
利用自监督学习方法在中等规模的图像数据集上,对视觉 Transformer 进行预训练,并通过对比微调的方式有效减少面部数据集和面部表情识别数据集之间的领域差异,实现更好的表征学习。
PDF
6 months ago
EMNLP
基于对比学习的句子编码器隐式加权信息词汇
通过对比损失的简单调优,句子编码器的性能可以得到显著提高。本文理论上和实验上展示出,在对比学习过程中模型获得了怎样的特征,即基于信息论的数量对词汇进行隐式加权。本文还使用多种模型、多个数据集、两种度量模型隐式加权的方法(集成渐变法和 SHA
→
PDF
8 months ago
EMNLP
不是所有的负样本都相等:针对细粒度文本分类的标签感知对比损失
本文分析了在细粒度文本分类任务情感分类和情感分析中预训练语言模型的对比微调。适应性嵌入类关系的对比目标函数可以有助于不同地权衡正面和负面情感,使得 Label-aware Contrastive Loss 在更多混淆类别的情况下表现更好。
PDF
3 years ago
Prev
Next