关键词confidence regularization
搜索结果 - 2
- ACL注重权衡:在不损害内部分布性能的情况下去偏向自然语言理解模型
本文介绍了一种名为置信度正则化的新型去偏方法,旨在提高自然语言理解任务模型对于越界数据的表现,同时保持对内界数据的准确度。实验表明,与之前的方法相比,该方法在提高模型对越界数据的表现方面具有更好的效果。
- ICCV置信度正则化自训练
本文提出了一种基于置信度正则化的自训练框架,在目标域上进行伪标签预测,并通过交替优化联合优化伪标签来实现领域自适应,其中伪标签作为连续隐变量进行处理,该方法在图像分类和语义分割中实验证明了其具有优异的性能。