BriefGPT.xyz
大模型
Ask
alpha
关键词
distributed shift risk minimization
搜索结果 - 1
ACL
DSRM:通过分布飘移风险最小化提升文本对抗训练
介绍了一种新的经过有效处理的针对深度语言模型对抗训练的方法 —— 分布偏移风险最小化(DSRM),不需要对抗样本进行训练,可以比当前最佳对抗训练方法降低 70% 的时间消耗,并且显著提高 BERT 模型对文本对抗攻击的鲁棒性,实现了各种基准
→
PDF
a year ago
Prev
Next