Nov, 2021
DAFormer:用于领域自适应语义分割的网络架构和训练策略的改进
DAFormer: Improving Network Architectures and Training Strategies for
Domain-Adaptive Semantic Segmentation
TL;DR本研究基于最新的神经网络架构研究了无监督域适应(UDA)领域,在语义分割方面揭示了Transformers的潜力。基于研究结果,本研究提出了一种新的UDA方法DAFormer,并且通过三种简单却至关重要的训练策略,DAFormer的实现在GTA-to-Cityscapes和Synthia-to-Cityscapes语义分割任务中取得了比目前最先进方法更好的表现。