高效预训练的 Fast-ELECTRA
本研究中提出了一种基于多任务学习的文本编码器预训练方法来改进 ELECTRA 模型,通过同时检测替换的标记和从候选集中选择原始的标记来训练判别器,并使用注意力机制网络和共享底部层的技术同时处理各种预训练任务,取得了在 GLUE 和 SQuAD 数据集上的有效和高效的表现。
May, 2021
本文提出了将 prompt-based few-shot learning 方法应用到 ELECTRA 上,表明该方法在各种任务中均胜过 masked language models,并显示 ELECTRA 学习到的分布与下游任务更加一致。
May, 2022
介绍了一种基于能量的填空模型 Electric,用于文本表示学习,通过噪声对比估计算法进行训练。Electric 在下游任务表现优秀,特别是在对文本进行可能性评分方面表现出较高的效果,同时清晰地解析了 ELECTRA 预训练期间所学习的内容。
Dec, 2020
本文提出使用困难度预测机制增强替换采样以改进 ELECTRA 预训练,并使用聚焦损失函数缓解正确标记替换过度采样的问题。实验结果表明,该方法在各种下游任务中都提高了 ELECTRA 预训练的性能。
Jun, 2021
本文介绍了一种名为 AraELECTRA 的阿拉伯语语言表示模型,使用替换标记检测目标在大型阿拉伯文本语料库上进行预训练,评估模型在多种阿拉伯自然语言处理任务中的表现,结果显示 AraELECTRA 在给定相同预训练数据且模型更小的情况下,优于当前现有的阿拉伯语言表示模型。
Dec, 2020
通过 ELECTRA 风格任务,我们引入了跨语言语言模型预训练。我们在多语言和平行语料库上对模型进行预训练,同时提出了两个预训练任务,即多语言替换标记检测和翻译替换标记检测。我们的模型在各种跨语言理解任务中表现优异,成本更低。此外,分析显示 XLM-E 在跨语言可转移性方面表现更好。
Jun, 2021
本论文研究了 Transformer 模型的有效预训练目标,并探究了 ELECTRA 模型的若干新特性。结果表明,去除 mask token 以及全局损失计算有助于提升模型性能,同时参考 ELECTRA 模型的判别式方法可以更高效地训练 BERT-like 模型,并且这些方法受到超参数寻优的进一步改善。
Apr, 2021
本文提出了一种用于零样本学习的新型置换标记检测 (RTD) 提示学习模型,基于 ELECTRA 模型的 RTD-prompt 学习在 NLP 任务的零样本情况下表现出卓越的性能,尤其在 SST-2 任务上取得了令人惊叹的 90.1% 的准确率。相比预训练的遮蔽语言模型,预训练的置换标记检测模型在零样本学习中表现更佳。
Jul, 2022
本文针对 ELECTRA 预训练生成器与判别器训练时出现的单调训练和交互不足的问题,提出了一种多角度课程学习(MCL)算法。该算法通过将 MLM 缺点和标注标签平衡考虑在内的三个自监督课程设计,解决了单调训练和标签不平衡等问题。由于判别器与生成器无明确的反馈循环,该算法提出了两个自我修正课程,以创建 “修正笔记本” 进行辅助监督,弥合两个编码器之间的差距。生动实验表明,该算法使平均表现提高 2.8%和 3.2%,超过了同样设置下最近的先进 ELECTRA 样式模型。
May, 2023
本文提出了一种使用预训练的 token-replaced 检测模型作为 few-shot 学习的替代方法,通过将分类或回归任务转化为 token-replaced 检测问题并利用自然语言提示来预测输入中最原始的标签描述词,对 16 个数据集进行了系统评估,结果表明该方法在一句话和两句话的学习任务中都优于使用预训练的 masked language model 的 few-shot 学习器。
Mar, 2022