BriefGPT.xyz
Ask
alpha
关键词
robustness gains
搜索结果 - 3
Sample-Efficient NLP 模型更加鲁棒吗?
本篇研究发现,虽然预训练模型具有更高的非分布式鲁棒性,但当零样本模型在更多的领域内数据进行精细调节时,其鲁棒性增益会逐渐减弱,因此该研究关注了不同模型的样本效率与鲁棒性之间的关系,并在案例分析中发现,获得更好的样本效率可能会带来更高的鲁棒性
→
PDF
2 years ago
数据决定对比语言图像预训练(CLIP)中的分布鲁棒性
通过实验研究,我们发现对比训练语言 - 图像模型的鲁棒性提高的主要因素是训练分布的多样性,而其他因素对鲁棒性几乎没有贡献。除了我们的实验结果,我们还介绍了 ImageNet-Captions,这是带有来自 Flickr 的原始文本注释的 I
→
PDF
2 years ago
ACL
更广覆盖以提高更好抗干扰性:用 Mixup 扩充进行对抗训练以达到更好的微调鲁棒性
本文提出了对抗与混合数据增强方法(AMDA)以提高预训练语言模型在对抗攻击下的鲁棒性。在 BERT 和 RoBERTa 的文本分类实验中,AMDA 在两种强对抗攻击下均取得显著的鲁棒性增益,并缓解了 ADA 在干净数据上的性能下降。
PDF
4 years ago
Prev
Next