TL;DR本研究提出了一种新的 dice loss 网络训练目标替代 cross-entropy 目标,以解决 NLP 任务中数据失衡的问题,并且在多项任务中均取得了显著的性能提升。
Abstract
Many nlp tasks such as tagging and machine reading comprehension are faced
with the severe data imbalance issue: negative examples significantly outnumber
positive examples, and the huge number of background exam
本研究提出了一种基于瞬时召回表现动态加权的损失函数:hard-class mining loss,以解决计算机视觉应用程序(如语义分割)中的类别不平衡问题。研究结果表明,recall loss 可以在不影响准确度的情况下提高平均准确度,并具有与标准交叉熵损失相竞争的平均 Intersection over Union(IoU)性能。