BriefGPT.xyz
Ask
alpha
关键词
self-distillation loss
搜索结果 - 5
提高自监督学习的算法、模型和数据效率
通过分析梯度公式,我们对基于非参数实例区分的单分支自监督学习方法进行了改进,提出了一种新的自蒸馏损失以减小实例区分中的更新问题,并且在训练开销和性能方面与不同方法进行了系统比较,在不同规模的数据和不同骨干网络下,我们的方法在大大降低开销的同
→
PDF
2 months ago
MonoProb: 解释性的无监督单目深度估计与不确定性
自我监督单目深度估计方法是用于自主车辆环境分析等关键应用的方法。该论文提出了 MonoProb,这是一种新的无监督单目深度估计方法,返回一个可解释的不确定性,该不确定性反映了网络在深度预测中的期望误差。通过引入一种新的自训练损失,可提高深度
→
PDF
8 months ago
SIGIR
数学应用题中的表达式句法信息瓶颈
利用表达式语法信息瓶颈方法(ESIB)和变分信息瓶颈技术,以及自我蒸馏损失函数,提出了一种自动解决数学题的模型,可以去除冗余特征并生成更多样化的解。
PDF
8 months ago
RGB-Thermal 语义分割补偿随机遮蔽
本文提出了一种采用互补的随机掩膜策略和自我蒸馏损失函数的 RGB-thermal 语义分割方法,能够减少对单一模态的依赖,并从单一或互补掩膜模态中提取互补的而有意义的表示,从而在复杂的天气和光照条件下实现可靠的语义场景理解。
PDF
a year ago
ICCV
挖掘自监督单目深度估计的潜在能力
该研究提出一种新的数据增强方法(data grafting)、探索性自蒸馏损失函数(exploratory self-distillation loss)、和全尺寸卷积神经网络,以提高自监督单目深度估计的表示能力和性能表现,实验结果表明该模
→
PDF
3 years ago
Prev
Next