Jan, 2024

基于注意力细化的面向基于补丁攻击的鲁棒语义分割

TL;DR通过引入 Max Attention Suppression 和 Random Attention Dropout 两个新模块,我们提出了一种名为 Robust Attention Mechanism (RAM) 的方法,用于改善语义分割模型的鲁棒性,显著提高对各种基于 patch 的攻击方法的防御能力。