BriefGPT.xyz
大模型
Ask
alpha
关键词
pretraining-finetuning paradigm
搜索结果 - 5
MiniConGTS: 一个极简的对比网格标签方案,用于方面情感三元组抽取
提出了一种在 Aspect Sentiment Triplet Extraction 中利用预训练表示的方法,并通过整合简化标签方案和新颖的令牌级对比学习策略来改善和利用预训练表示,实现了与最先进技术相媲美或更好的性能,同时具有更紧凑的设计
→
PDF
17 days ago
边界事关:一个双级主动微调框架
我们提出了一个二阶段的主动微调框架,其中包括核心样本选择以增加多样性,以及边界样本选择以增加不确定性,通过在高维特征空间中识别伪类别中心、创新去噪方法和迭代策略,无需真实标签即可选择需要注释的样本,我们的综合实验证据量化地证明了我们的方法比
→
PDF
4 months ago
预训练 - 微调模式中出现的任务交叉线性
通过线性插值发现预训练 - 微调模型之间的交叉任务线性性,揭示神经网络在参数空间到特征空间的映射机制,提供了关于模型合并 / 编辑的新见解,并强调了预训练的影响因素。
PDF
5 months ago
对抗迁移学习中的初始化问题
在这项研究中,我们深入研究了迁移学习中的对抗鲁棒性,并揭示了初始化的关键作用,包括预训练模型和线性头部。我们发现对抗鲁棒的预训练模型的必要性,并通过线性探测发现它能在某些数据集上优于全面微调和其他方法。基于此,我们提出了 Robust Li
→
PDF
7 months ago
ActiveDC: 主动微调的分布校准
提出了一种名为 ActiveDC 的新方法,通过优化子集与整个未标记样本池之间的分布相似性和利用未标记样本池中的隐式类别信息,选择样本进行注释并校准其分布,从而在所有图像分类任务中持续优于基准性能,特别是在采样比率较低时,获得高达 10%的
→
PDF
8 months ago
Prev
Next