关键词differentiable loss function
搜索结果 - 6
- AnyLoss:将分类指标转化为损失函数
我们提出了一种通用的方法,将任何基于混淆矩阵的度量转化为可用于优化过程的损失函数,并通过对其导数的建议证明了其可微分性,我们在多个数据集上进行了广泛的实验证明了该方法在处理不平衡数据集方面的杰出成就,并且与多个基准模型相比的竞争学习速度凸显 - 一种用于图划分中无监督图神经网络的新的可微损失函数
本研究引入了一种新颖的流程,利用无监督图神经网络来解决图分割问题,并提出了一个专门用于此目的的可微损失函数。对于当前先进技术,我们对度量指标:割边和平衡进行了严格评估,结果表明我们的方法具有竞争力。
- CVPR用于结构化在线地图的分层循环注意力网络
通过层级循环网络输出结构化多段线,我们提出了一种用于在线道路网络提取的方法,并以新型可微分损失函数度量模型预测结果和真实路径的偏差。实验表明,该方法可在 90 公里的公路上正确恢复 92% 的拓扑结构。
- CVPR无监督表面配准的多视角循环对齐网络
本文提出一种基于刚性变换的非刚性配准算法,通过可微分的损失函数进行监督学习,并在多个数据集上的实验结果表明其优于现有最先进算法。
- 普适量化神经压缩
通过实现一种统一的量化方式,消除训练和测试阶段的不匹配,使我们能够使用可完全区分的损失函数学习编码器。当遇到没有关于分布的假设时,这种方法的通用性可能会面临计算上的困难。最后,我们还展示了量化如何通过软量化实现,从而将压缩与无量化桥接起来。
- 进化策略梯度
该研究提出了一种元学习方法,用于学习基于梯度的加强学习算法,即演化可微损失函数,以便代理可以最小化该损失来优化其策略并获得高回报。经实证结果表明,与现成的策略梯度方法相比,所提出的演化策略梯度算法(EPG)在几个随机环境上实现了更快的学习,