Feb, 2023

DART: Diversify-Aggregate-Repeat 训练改进神经网络的泛化性能

TL;DR本文提出了一种名为 DART 的训练策略,它先使用不同的增强(或域)训练不同的模型,然后将它们的权重聚合起来,以获得更好的泛化性能。该方法不仅在内部领域泛化方面取得了改进,而且在流行的 DomainBed 框架中,我们还展示了域泛化基准的 SOTA 性能。