BOOST:利用黑盒控制提升 LM 生成中的常识
本文提出概念感知的语言模型 (CALM),通过增强自监督学习任务以从文本中学习常识。CALM 可以在不依赖外部知识图谱的情况下将更多的常识知识整合到预先训练的文本转文本变压器的参数中,从而在自然语言理解和生成任务中实现更好的性能。
Oct, 2020
本论文中,我们探讨如何运用常识知识图谱提高条件文本生成模型的综合性能,通过从 Conceptnet 中提取常识关系,将这些关系注入到 Unified Language Model (UniLM) 中,并通过输出约束强制实施词汇要求,以提高生成文本的语义正确性和符合人类理解,从而实现了匹配词性和完全概念覆盖的要求。
Dec, 2020
提出了一种基于符号知识图谱的预训练语言模型生成任务相关信息的 CommonSense Contextualizer (CoSe-Co) 模型,该模型结合句子作为输入文本的上下文信息,以构建一种新的数据集用于训练 CoSe-Co 模型,并在多项选择 QA 以及常识推理任务中展现出显著提高的性能
Jun, 2022
我们提出了一项名为 RICA 的挑战,即基于常识公理的鲁棒推理能力,评估文本扰动下对强大的常识推理的鲁棒性。我们使用常识知识库和两种不同的评估设置开发了一个系统性和可扩展的程序来生成数据,并进行了广泛的实验表明,预训练语言模型在该零 - shot 设置下的表现不如随机猜测,并且对统计偏见的影响很大,也不具有扰动攻击的鲁棒性。我们的大规模基准测试暴露了预训练语言模型与人类语言理解的显著差距,并为模型提供了证明常识的新挑战。
May, 2020
本文针对故事生成中存在的重复、逻辑冲突和长距离一致性缺乏等问题,提出了一种基于知识增强预训练模型的通用故事生成方法。通过利用外部知识库中的常识知识来生成合理的故事,并采用多任务学习的方法来捕捉合理故事中句子之间的因果关系和时间依赖关系,从而在逻辑和整体一致性方面比其他最先进的模型有更好的表现。
Jan, 2020
通过创新构建一个包含细粒度和跨语言维度的词汇语义理解数据集,本研究揭示了大语言模型在基本词汇意义理解任务上的性能不佳,甚至落后于 16 岁的人类 3.9% 和 22.3% 分别。这突显了其关键不足,并激发了进一步研究和开发更智能的大语言模型的新见解。
May, 2024
本研究探讨大型语言模型在自然语言推理任务上的表现。通过使用少量样本指导大型语言模型进行任务适应,以及可应用于多个任务的可重用的知识模块,结合逻辑形式输入的答案程序,实现了在多项 NLP 基准测试上的最新性能,包括 bAbI,StepGame,CLUTRR 和 gSCAN,并成功解决了机器人规划任务,而大型语言模型单独无法解决。
Jul, 2023
介绍了如何利用当前的机器学习方法,通过知识迁移、模型集成和引入配对对比目标等方法,改进通用预训练语言模型在常识推理任务中,取得超过 15%的配对准确度和超过 8.7%的标准准确度的绝对增益。
Oct, 2023
本文利用 Transformer 模型及多种技巧,解决常识推理领域中缺乏可控性、训练时缺乏常识知识、推理出假命题等问题。通过引入 “提示” 技术控制推理,使用多个常识知识库进行联合推理,并运用 GAN 框架生成同时可信可控的常识命题。
Feb, 2023