BriefGPT.xyz
Ask
alpha
关键词
out of distribution
搜索结果 - 3
预训练的转换器并不总是能提高健壮性
对 10 种模型进行对比研究,发现在加入噪声数据的情况下,预训练 Transformer 模型比传统模型提供了更少的鲁棒性,在使用对抗过滤方法进行扩展后,虽然增加了泛化性,但在面对噪声数据时依然无法提供足够的鲁棒性。
PDF
2 years ago
ICML
GraphTTA: 图神经网络测试时间自适应
本文提出了一种名为 GAPGC 的新型测试时间适应策略,通过对比学习和自监督学习等方法,有效增强图神经网络的适应性和性能,并且提供了信息论的理论证明。实验结果表明,该方法在分子骨架 OOD 数据集上取得了最先进的 GNN 性能。
PDF
2 years ago
样本学习一致性可预测性研究
本文研究如何通过训练模型来预测 CIFAR-100 和 CIFAR-10 的难度得分,发现 C-Score 难以泛化到其他数据集,因此提出基于样本关系的假设,希望在进一步的工作中探索。
PDF
2 years ago
Prev
Next