Jun, 2019

基于 Bregman 散度的鲁棒双温度逻辑损失

TL;DR本文介绍一种在神经网络中引入温度的方法,并用高温通用性替换 softmax 输出层。通过调节两种温度来创建单层情况下的非凸损失函数,替换神经网络的最后一层并用双温度通用的逻辑损失函数进行训练,可使训练在一定程度上更加鲁棒。基于 Bregman 散度的方法胜过使用 Tsallis 散度的相关双温度方法。