Nov, 2022

神经网络中的偏见解释:探究表征相似性

TL;DR研究了使用不同目标函数,基于卷积神经网络(如ResNets)训练偏重数据集的性能和内部表征结构,表明负对数似然(NLL)和softmax交叉熵(SCE)作为损失函数得到的ResNets表征同样能够在偏重数据上产生更好的性能和细致替代,并且在神经网络的各层之间具有渐进表征相似性,性能更有可能是稳健的。