ICMLMay, 2022

利用逻辑归一化缓解神经网络过度自信

TL;DR本文提出 Logit Normalization 方法,通过约束神经网络输出的 logits 向量的范数,以减少 out-of-distribution 数据的高置信度问题,并在常见基准测试中取得高度可分辨的置信度分数。