CERT:对比自监督学习用于语言理解
本文提出了一种对 BERT 进行自监督 fine-tune 的对比学习框架 ConSERT,通过利用无标签文本解决 BERT 生成句子表示时的崩溃问题,进而提高了 sentence representations 的应用性能,实验结果表明在 STS 任务上优于之前的 SOTA 达 8%,并且在与 1000 份样本的情况下表现稳健。
May, 2021
本文提出使用对比学习的方法,通过自我指导来改善 BERT 的句子表示质量,并将其应用于句子表示学习中。实验证明,与竞争对手的基线相比,我们的方法在广泛的句子相关任务上更加有效,并且在推理时效率高且鲁棒性强。
Jun, 2021
本文提出一种用于低资源语言的提高问答技术的方法,即通过翻译和转写将问题回答样本扩充到目标语言,利用增广数据微调已经在英语中预训练的 mBERT 问答模型,并引入对翻译问题上下文特征对之间的对比损失来提高不同语言家族的翻译准确性。
Apr, 2022
介绍了一种新的语言表示模型 BERT,可以通过预训练深度双向表示生成模型从未标记的文本中学习,通过微调可用于广泛的任务,包括自然语言处理。
Oct, 2018
本文旨在探讨通过预训练句子编码器加语言建模和相关无监督任务,再加上富数据的有监督任务,如自然语言推断等方式进一步训练,可显著提高 GLUE 基准测试性能并降低随机重启的变异性,并证明该方法特别适用于数据受限制的条件下。
Nov, 2018
通过对比学习方法评估句子编码器的鲁棒性,使用字符级、词级和句级攻击检验了模型的稳健性,结果显示模型在扰动数据集上的准确率可下降高达 15%,且当前的分类策略未能充分利用语义和句法结构信息。
Nov, 2023
本文介绍了一种基于 BERT 的上下文对话编码器 DialogueBERT,通过五个自超监督学习预训练任务学习对话表述的特殊性,并整合了四个不同的输入嵌入来捕捉话语之间的关系,该模型在意图识别、情感识别和命名实体识别等三个下游对话理解任务中表现出优异性能。
Sep, 2021
本文介绍 DeCLUTR: Deep Contrastive Learning for Unsupervised Textual Representations,是一种无监督的学习通用语句嵌入的方法,其优于仅仅使用大规模数据集。该方法扩展了基于 Transformer 的语言模型的预训练,可以在大量的未标注培训数据下达到可监管培训的质量水平,这个解决方案可以应用于没有标注数据的语言和领域。该研究的代码和预训练模型是公开的,可以轻松地适应新的领域或用于嵌入以前不见过的文本。
Jun, 2020
本文提出了一种多级对比学习(ML-CTL)框架,使用翻译后的平行数据并显式地整合每对平行句子的单词级信息进行对比学习,以进一步提高预训练模型的跨语言能力。其中,采用了交叉零噪声对比估计(CZ-NCE)损失来减轻训练过程中小批量大小的浮点误差的影响。该方法显著提高了基础模型(mBERT)的跨语言迁移能力,并在 Xtreme 基准测试的多个零 - shot 跨语言下游任务中表现优异。
Feb, 2022
本文提出了一种自监督学习方法,用于视频特征,与现有方法相比在下游任务中表现显著提高,通过将文本序列的 BERT 模型扩展到实值特征向量序列的情况,以噪声对比估计取代 softma 损失函数,同时展示了如何从可视特征序列和 ASR 派生的词序列中学习表示,并且表明这样的跨模态训练可以进一步提高性能。
Jun, 2019