上下文 BERT:使用全局状态对语言模型进行调节
提出一种名为条件 BERT 上下文增强的有标注句子的新数据增强方法,基于 BERT 的条件掩蔽语言模型,通过替换预测到的更多变化的子词来增加标注的语句的多样性,实验显示该方法可以轻松应用于卷积或循环神经网络分类器中以获得明显的改进。
Dec, 2018
本研究旨在提高科学教育中学生答案自动评分的性能。使用科学教育数据预训练特定领域的语言模型可以提高性能,并在将来自动化科学教育任务方面具有潜在的普适性。
Jan, 2023
本文使用预训练的 BERT 模型来处理表格检索任务,研究如何编码表格内容以及如何将其他文献中的特征与 BERT 模型联合训练,实验表明这一方法在公共数据集上表现卓越。
May, 2020
本文探讨了掩码语言模型的上下文学习能力,挑战了常见观点,即这种能力在它们中并没有 ' 出现 '。我们提出了一种令人尴尬地简单的推理技术,使得 DeBERTa 能够作为一个生成模型进行操作,无需额外训练。我们的研究结果表明,DeBERTa 能够与甚至超过 GPT-3,后者以引入上下文学习范式而闻名。比较分析表明,掩码和因果语言模型的行为非常不同,它们在不同类别的任务上明显超越对方。这表明存在一个能充分利用两个训练目标优势的混合训练方法的巨大潜力。
Jun, 2024
本文介绍了一种基于时间的上下文语言模型 TempoBERT,通过添加时间信息和进行特定的时间掩码来适应语言的动态性,并在不同的数据集上进行了实验,证明利用时间掩码可以在语义变化检测和句子时间预测任务中得到好的效果。
Oct, 2021
为了解决 BERT 模型在预训练和推理之间存在的差异,我们从单词概率分布的角度研究预训练和推理的上下文表示,并发现 BERT 在预训练中存在忽略上下文单词相似性的风险。通过引入辅助注释正则化器,我们提出了一个增强单词语义相似性的 GR-BERT 预训练模型,并设计了两种体系结构进行评估和实验,结果表明该模型较之前模型在词汇替换和文本语义任务中达到了新的最优效果。
May, 2022
本论文研究了在大规模无监督文本语料库上预训练的语言模型,结合信息检索系统以纯无监督方式来增强预训练语言模型,并成功提高了其零样本缺失式问答系统的性能,尤其通过使用不同的分隔符处理查询和上下文,让 BERT 能够更好的判断是否匹配上下文从而增加准确性和鲁棒性。
May, 2020
知识库搭建从预训练语言模型开始,提出了一种扩展语言模型词汇量的方法,实现了多词汇实体的直接嵌入,这在知识图谱的链接预测任务和数据管理中的元数据完成方面迈出了重要的一步。
Oct, 2023
介绍了一种新的语言表示模型 BERT,可以通过预训练深度双向表示生成模型从未标记的文本中学习,通过微调可用于广泛的任务,包括自然语言处理。
Oct, 2018
该研究的主要目的是探讨如何利用大规模的预训练语言模型如 BERT 来进行语言生成任务,并提出了一种基于条件掩码语言建模(C-MLM)的方法,使用 BERT 对学生模型进行监督,从而实现更好的文本生成性能,实验证明该方法在多语言生成任务上明显优于强大的 Transformer 基线,包括机器翻译和文本摘要,并在 IWSLT 德英和英越 MT 数据集上取得了新的最优效果。
Nov, 2019