语义标签平滑用于序列到序列问题
该研究提出了一种基于奖励的极大似然估计方法,旨在克服循环神经网络语言模型的固有弊端,并在任务完成后通过两种平滑方法(token-level loss smoothing 和 sequence-level loss smoothing)显著提高了图像生成和机器翻译的效果。
May, 2018
这项研究通过使用不同程度的平滑化技术来实现情感分类的标签平滑化,从而提高情感分类准确性,并在八个不同的数据集和深度学习架构(TextCNN、BERT 和 RoBERTa)中的训练和微调两种学习方案下,通过大量实验展示了标签平滑化在文本情感分类任务中的卓越性能。
Dec, 2023
本文提出了一种序列标注框架,采用辅助训练目标,并通过学习预测数据集中每个词周围的单词进行语言建模,以此学习通用的语义和语法组合模式,并在不需要额外标注或未标注数据的情况下,实现在多个序列标注任务上取得一致的性能提升。
Apr, 2017
本文研究标签平滑的结构化方法,通过对训练数据中真实标签进行软化处理,有助于避免过度自信的输出,提高神经网络泛化能力的同时,兼顾不同训练数据的特性,为机器学习领域中的正则化技术提供了一种有效的手段。实验结果表明,该方法在合成与各类真实数据集中均取得了较好的性能表现。
Jan, 2020
通过使用软分布,可以提高多类神经网络的泛化性能和学习速度。基于标签平滑的网络不会变得过于自信,而且可以显著提高模型的校准性。但是,如果使用了平滑标签,知识蒸馏的效果就会减弱。标签平滑可通过训练样本的表示,将同一类别的相同样本聚为紧密的簇,这样就导致了这些实例之间的信息损失。
Jun, 2019
通过语义图平滑,在经验上探索一种无监督学习更判别句子表示方法的方法。利用预训练模型得到的句子嵌入来提高文本聚类和分类任务的结果。经验证,我们的方法在八个基准测试中表现出一致的改进,展示了语义图平滑在改进句子嵌入用于监督和无监督的文档分类任务中的潜力。
Feb, 2024
该研究介绍了一种基于全局序列评分学习的 Sequence-to-Sequence (seq2seq) 模型和波束搜索训练方案,通过避免局部训练的传统偏差问题,统一训练损失和测试时间使用,并保留 seq2seq 的有效训练方法。在单词排序、解析和机器翻译三个不同的序列到序列任务中,该系统优于基于注意力的 seq2seq 系统高度优化的系统和其他基准线。
Jun, 2016
提出一种基于模型概率分布的标签平滑正则化方法,使每个样本的平滑程度都不同,从而在训练期间动态自我调整平滑程度,有效提高模型的泛化和校准性能。
Oct, 2022
本研究提出了一种新的机制 Masked Label Smoothing(MLS),该机制有效地解决了标签平滑与词汇共享之间的矛盾,能够在不同数据集上提高神经机器翻译模型的翻译质量和模型校准性能。
Mar, 2022