BriefGPT.xyz
Ask
alpha
关键词
kl-divergence regularized loss function
搜索结果 - 1
双重稳健实例重新加权对抗训练
提出一种新型的双重鲁棒性实例重新加权的对抗训练 (AT) 框架,通过探索分布鲁棒优化技术获得重要性权重,并在最脆弱的示例上提高鲁棒性。
PDF
a year ago
Prev
Next