Jun, 2018

目标核网络:具有注意正则化的更快卷积

TL;DR提出了一种名为“Attentive Regularization(AR)”的方法,通过区域关注机制来约束卷积神经网络(CNNs)中卷积核的激活图,并在不需要额外监督的情况下通过可微分的注意力机制来优化ROI。结果表明,修改后的网络(即“Targeted Kernel Networks”)在多个领域的合成和自然任务中明显优于基线模型,同时需要的计算量更少(减少了约一个数量级)。