使用众包数据集对文本中的前置条件进行建模
通过在预训练中引入人类的反馈,实现对于语言模型的生成文本的可控和可导向性,减少哪些偏离人类喜好的内容的生成,并且在标准的预训练和任务特定的微调中保持下游任务表现。推荐在训练开始时,就结合人类反馈,不再使用模仿学习的方式预训练语言模型。
Feb, 2023
语言模型可以通过适应原始文本学习到复杂的语言理解技能。我们在本文中提出了一种称为条件微调的简单改进方法,它在进行语言建模时进行了上下文的条件限制。我们证明一个上下文可以 “解释掉” 某些语料库统计信息并使模型避免学习它们。通过这种方式,条件微调实现了对语料库的选择性学习,学习了对下游任务有用的知识,同时避免学习无用的语料库统计信息,如主题偏差。这种选择性学习效果导致了更少的遗忘和更好的稳定可塑性权衡,在域微调中潜在受益于与语言模型的终身学习。
Jun, 2024
介绍了一种提高语言模型结构理解能力的方法,它通过预训练语言模型生成的结构来替代以往的基于任务数据的微调方式,并且在包含 28 个数据集的 10 个预测任务上实现了零样本迁移和超越了 21 个数据集的最新成果。
May, 2022
本文研究使用情感搭载的话语标记产生大规模弱标记数据并利用此数据训练与情感分析更好契合的连续预训练模型,以提高零标记和少样本情况下的性能表现,并在多项基准数据集上进行了广泛的实验,包括金融领域。
Jan, 2022
分析了两个自然语言推理数据集的语言特征,发现机器学习模型难以理解介词和动词语义重要性,不能理解反义词和同音词,不能理解不完整的句子和罕见单词短语,因此需要在训练过程中尽可能利用更多外部知识。
Oct, 2022
在理解预训练语言模型对话建模能力方面,我们提出了一种句子入侵检测任务,并在英语方面检查了一系列预训练 LM 的性能。我们通过构建包含英语维基百科和 CNN 新闻文章的 170,000 + 文档的新型入侵句子检测数据集 INSteD,显示预训练 LM 在域内评估中表现出色,但在跨域设置中经验了大幅下降,表明其对跨域推广的能力有限。进一步的,在一个新的语言探测数据集上的结果表明,在跨域设置中有很大的改进空间。
Mar, 2021
本论文旨在针对基于预训练语言模型(LMs)的语用能力,重点关注与话语连接词有关的语用能力。我们通过自然发生的数据和来源于心理语言学的控制输入结合的方式来制定填空测试方式,重点测试模型使用语用线索预测话语连接词的能力、理解与连接词相关的含义,以及模型对连接词时间动态的人类偏好程度。我们发现,虽然模型在自然发生数据的情境下可以合理地预测连接词,但当我们控制语境以孤立高级语用线索时,模型的灵敏度较低,而模型也没有显示出显著的人类时间偏好。总体而言,研究结果表明,在现阶段,主流的预训练模型不能够达到具备实质性的语用能力。
Sep, 2021
本文提出了 coCondenser 方法,将 Condenser 预训练架构与无监督语料级对比损失相结合,减轻了密集检索器对大规模训练数据和数据工程的依赖,并通过实验表明,该方法具有与 RocketQA 相当的性能。
Aug, 2021
本文提出了一种基于预训练自然语言推理模型(NLI)的一致性校正框架 ConCoRD,用于提高预训练自然语言处理(NLP)模型的一致性和准确性。该框架不需要重新训练或调整,通过建立一个权重的最大可满足性解决器来提高模型预测的准确性和一致性。实验结果表明,该方法可以提高现成的闭卷问答(QA)和视觉问答(VQA)模型的准确性,并提高 LXMERT 在 ConVQA 数据集上的准确率。
Nov, 2022
该研究探索了通过提供指令进行预训练的受监督多任务预训练方法,通过使用开源模型构建的高效指令合成器生成指令 - 响应对,验证了指令预训练的有效性,并证明在从头开始的预训练和持续预训练中都能增强预训练模型的性能。
Jun, 2024