对比损失作为全局上表观互作的广义模型
本文提出了一种用于任务和模型无关的损失函数学习的新型元学习框架,通过混合搜索方法,首先使用遗传编程找到一组符号损失函数,然后对学习到的损失函数进行参数化和优化,实验证明该框架具有多样性与性能,在各种任务和特定神经网络结构上提供了改进的收敛性、样本效率和推理性能。
Mar, 2024
神经网络通过最小化损失函数来学习,定义了预测模型输出与目标值之间的差异。选择损失函数对于实现特定任务行为至关重要,并且极大地影响模型的能力。我们利用遗传编程方法对众所周知的损失函数进行了实验性挑战,包括交叉熵损失,提出了 5 个最佳函数,并在各种模型架构的标准数据集上进行了评估,结果发现 Next Generation Loss(NGL)函数在所有测试数据集上表现出相同或更好的性能,包括 Imagetnet-1k 数据集。最后,我们将 NGL 函数用于 Pascal VOC 2012 和 COCO-Stuff164k 数据集的分割后任务训练,提高了底层模型的性能。
Apr, 2024
使用神经损失函数搜索(NLFS)方法,我们在卷积神经网络中发现了三个新的损失函数(NeuroLoss1、NeuroLoss2 和 NeuroLoss3),它们能够以更高的平均测试准确率取代交叉熵作为简单的损失函数,从而实现更好的泛化效果。
Jan, 2024
本文研究了如何选择神经网络的损失函数,提出所有相关的损失函数都会展现神经折叠现象,且实验表明,无论是交叉熵、标签平滑、聚焦损失还是均方误差,只要神经网络足够大,训练充分,使用这些损失函数训练出的网络特征在测试数据上表现几乎相同。
Oct, 2022
本文研究了广泛应用的交叉熵损失函数,提出了一族损失函数 comp-sum,包括了交叉熵、广义交叉熵、平均绝对误差等。我们首次给出了这些损失函数的 H - 相容性,进一步介绍了一种新的平滑对抗 comp-sum 损失函数,并证明了它们有助于在对抗性环境下提高模型的 H - 相容性。
Apr, 2023
本研究探讨了在最小化损失时,编码器输出空间内所寻求的类别性空间几何是否存在本质差异。同时提供实证证据表明,两种损失函数的优化行为存在显著不同,这将对神经网络的训练产生影响。
Feb, 2021