一个更好的掩码语言模型评分方法
通过掩码语言模型的伪对数似然得分,我们证明该方法在各种任务中优于自回归语言模型。RoBERTa 减小端到端 LibriSpeech 模型的 WER,同时增加低资源翻译的 BLEU 得分,这个成功要归功于伪对数似然得分的无监督表达,而不具有从左到右的偏见。
Oct, 2019
我们通过将伪对数似然(PLL)得分集表示为高斯分布,并使用 KL 散度和 JS 散度构建评估措施,以评估刻板化和反刻板化 PLL 得分的分布,发现我们提出的措施在公开可用的数据集 StereoSet(SS)和 CrowS-Pairs(CP)上显示出显著的鲁棒性和可解释性。
Jan, 2024
本文探讨了使用零射击方式相对于微调方法的优势,并通过实验结果表明其在通用常识推理等二选一任务上表现出色。并且,作者认为此种方法的健壮性应从表征组合性的角度进行解释。
Jan, 2022
本文介绍了一种利用掩码语言建模来训练非自回归机器翻译模型的方法,并通过对多个数据集的实验验证,证明该方法在翻译质量和速度方面都优于现有的非自回归翻译模型,并且接近于左到右的变换器模型。
Apr, 2019
本文提出了一种新的基于上下文表示扰动评分的图表法提取已屏蔽语言模型中的句法树的方法,此方法在英语和八种语言的数据集上均表现出优异性能,能替代无监督语法分析方法。
Jun, 2023
本文研究自回归语言模型中计算字符序列概率的方法,提出了一种基于重要性采样的算法估计边缘概率,并在一系列尖端模型和数据集上进行比较,结果表明在大多数情况下,对边缘化的忽略导致的对数似然差异小于 0.5%,但对于长且复杂的数据则更加明显。
Jun, 2023
本文提出了一种名为 AUL 并基于 attention weights 的 Alle Unmasked Likelihood 方法,用于检测 Masked Language Models 中的社会偏见,并发现以前的评估指标存在一系列问题,例如不考虑掩码的预测精度和测试集中的高频词掩码等问题。
Apr, 2021
本文提出了一种称为 Pseudo-Masked Language Model(PMLM)的新训练程序,用于预训练统一的语言模型以处理自动编码和部分自回归语言建模任务,并通过自我注意力掩码和位置嵌入来避免冗余计算,在自然语言理解和生成任务方面取得了新的最先进的结果。
Feb, 2020
提出了一种新型的用于 CTC-Based ASR 模型的内部语言模型估计技术,该技术在多个领域的数据集上得到了验证,能通过遮盖音频时间步骤迭代地估计内部 LM 的伪对数似然,从而消除源域偏见,并且在无目标域数据的零 - shot 域自适应中也能优于 Shallow Fusion 来提高 WER。
May, 2023
本研究通过探索不同时间阶段掩码策略方式,发现固定掩码比率和掩码内容是无法实现最佳效果的。因此,提出了两种自适应掩码策略,通过不同的训练阶段来调整掩码比率和掩码内容以提高模型的性能,并在下游任务中进行验证。该研究的工作是关于时间相关掩码策略对预训练模型的影响的开拓性研究,让掩码比率和掩码内容如何影响 MLM 预训练得到了更好的理解。
Aug, 2022