BriefGPT.xyz
Ask
alpha
关键词
cross entropy
搜索结果 - 6
图像分类的下一代损失函数
神经网络通过最小化损失函数来学习,定义了预测模型输出与目标值之间的差异。选择损失函数对于实现特定任务行为至关重要,并且极大地影响模型的能力。我们利用遗传编程方法对众所周知的损失函数进行了实验性挑战,包括交叉熵损失,提出了 5 个最佳函数,并
→
PDF
3 months ago
利用根据逻辑目标加速神经网络训练
基于逻辑函数的严格凸函数序列用于优化神经网络的训练,通过增加严格凸函数的约束提高了收敛速度和性能。
PDF
9 months ago
深度线性网络中的神经崩溃:从平衡到不平衡数据
研究表明,深度神经网络中的最后一层特征和分类器在经过训练直至收敛后仍呈现出相同的结构特性,表现为神经崩塌现象。本研究进一步证明了这种现象在深度线性网络中同样存在,并且成功地拓展到了失衡数据的情况下。实验证明了我们的理论分析。
PDF
2 years ago
混合损失函数用于改善神经网络的泛化性能
本文探讨了混合交叉熵误差和平方和误差损失函数的有效性,发现该混合损失函数可以在所有问题上提高 ANN 的泛化能力,并且以平方和误差损失函数开始训练再转换为交叉熵误差损失函数的混合函数通常表现最佳。
PDF
2 years ago
ICCV
带有噪声标签的鲁棒学习的对称交叉熵
本文提出了一种名为 Symmetric cross entropy Learning 的深度神经网络学习方法,通过将 Cross Entropy 与 Reverse Cross Entropy 相结合,解决了在标签噪声存在下 CE 的过拟合
→
PDF
5 years ago
ACL
统计机器翻译中数据选择的神经网络分类器
本研究提出了一种基于神经网络分类器的数据选择方法,实验结果表明相对于交叉熵法,该方法可提供更好的翻译质量,并且在不同语言对的情况下,实验结果是连贯一致的。
PDF
8 years ago
Prev
Next