BriefGPT.xyz
Ask
alpha
关键词
group annotations
搜索结果 - 2
面向少量注释的群体鲁棒性的最后一层重新训练
通过仅使用模型选择的族群注释和少数类别注释,最后一层的重新训练可以显著提高最差群组的准确性,而无需额外的数据或注释。此外,我们还引入了一种轻量级方法,即选择性的最后一层微调(SELF),通过使用误分类或不一致性的数据构建了重新加权数据集,实
→
PDF
10 months ago
ICML
只需要训练两次:在没有训练组信息的情况下提高团体鲁棒性
本文提出了 JTT 这样一个简单的两阶段方法,利用加重权重的方式提高标准 ERM 模型对于性能低下群组的准确性,从而填补了标准 ERM 模型与 group DRO 之间最差群组准确性差距的 75%,并且只需要在小型验证集上标注群体注释以调整
→
PDF
3 years ago
Prev
Next