- VLind-Bench:大型视觉 - 语言模型中的语言先验测量
通过新的基准测试 VLind-Bench,本研究评估和分析了近期的大型视觉语言模型 (LVLMs),发现几乎所有模型都过度依赖于语言先验,这对该领域构成了巨大挑战。
- 通过减少人口统计术语的影响来提升常识偏见分类
通过层次概括、基于阈值的增强和层次概括与阈值增强方法相结合等三种方法,提高了常识极化分类器的性能和效果,减轻了人口统计术语对 NLP 模型性能的影响。
- 通过上下文学习提高大型语言模型对常识生成的多样性
生成常识推理(GCR)需要模型利用常识知识进行推理,同时生成连贯的句子。本论文提出了一种简单的方法来增加大型语言模型(LLMs)生成的多样性,同时保持生成质量。实验结果表明,该方法在生成质量和多样性之间取得了理想的平衡,并且所生成的句子可用 - 用多方概念嵌入建模常识共性
通过显式建模学习概念嵌入的不同方面,本文展示了这种方法能够捕捉到更多样化的常识属性,并在超细实体类型和本体补全等下游任务中持续改进结果。
- CKERC:面向会话中情感识别的联合大型语言模型与常识知识
基于大型语言模型的共识知识框架 CKERC 是一种用于对话中情感识别的方法,通过生成基于历史话语的对话者共识来提供间接线索信息,并通过解决共识知识在情感识别任务中的有效性进行了实证分析。
- 如何理解命名实体:运用常识进行新闻字幕
利用常识知识理解新闻题注中的命名实体,通过筛选、区分和丰富模块,将命名实体关联的常识知识以及区分相似命名实体的知识整合,生成新闻题注。在 GoodNews 和 NYTimes 两个具有挑战性的数据集上的实验证明了该方法的优越性。
- WinoViz:在不同状态下探索物体的视觉属性
人们在特定语境下会感知和理解物体的不同视觉属性。以香蕉为例,它腐烂时变成棕色,未成熟时是绿色。我们呈现了 WinoViz,一个仅包含文本的评估数据集,包括 1,380 个示例,以测试语言模型在不同语境或状态下理解物体的变体视觉属性的推理能力 - 多模式检索增强生成式常识推理
提出了一种新颖的多模式检索 (MORE) 增强框架,利用文本和图像来增强语言模型的常识能力。在 Common-Gen 任务上的大量实验表明,MORE 基于单一和多模态的预训练模型具有较高的效果。
- AAAICORECODE: 一个带有基准任务的常识注释对话数据集,用于中文大型语言模型
CORECODE 是一个包含丰富常识知识的中文大型语言模型的数据集,用于评估中文大型语言模型的常识推理和冲突检测能力。研究使用众包方式收集了 76,787 个常识知识注释,并通过对话级推理和检测任务验证模型在该数据集上的能力,结果表明现有的 - ACL基于因果动作 - 效应建模的视频领域隐式便利性获取
通过自我监督预训练方法,从视觉领域获取行动效果相关的可供性知识,进而证实在学习可供性特性方面,基于行动模式和效果模式的双重预训练任务比基于图像的视觉 - 语言模型以及纯语言模型更为有效。
- 加强具有先知性常识推理的共情和情感支持对话生成
通过利用大型语言模型的能力,在对话和运用常识推理方面训练可调节的模型,我们提出了先知性常识推理这一创新范式,它能够弥补常识推理过程中的语境不匹配和无法预测未来对话主题的问题,显著提升对话代理的回应质量。
- 通过层次关系和常识知识增强场景图生成
该论文提出了一种改进的方法来生成场景图,通过引入关系层次结构和常识知识。具体而言,我们提出了一个贝叶斯分类头,利用了信息丰富的层次结构,同时预测两个对象之间的超类或关系类型以及每个超类下的详细关系。我们设计了一个常识验证流程,使用大型语言模 - 童话问答:将常识知识图谱融入儿童故事书叙述
AI 模型通过使用以叙述为基础的问答数据集来提供定制化问答功能,以支持面向儿童教育应用;然而,现有数据集仅包括基于故事内容的问答对,而当教师将故事内容与现实世界的知识(例如常识知识)进行关联时,儿童可以学到更多。我们引入了由儿童教育专家注释 - EMNLPROME:评估预训练的视觉 - 语言模型在超越视觉常识推理上的表现
评估最新的预训练视觉 - 语言模型在解释反直觉情境方面的推理能力,揭示大多数模型在此方面仍然相当无能。
- EMNLP这不是一个数据集:一个用于挑战大规模语言模型的大规模否定评估基准
大型语言模型在理解否定时表现亚优,本研究通过引入一个大规模自动生成的常识知识数据集,涉及到约 40 万个描述性句子,其中大约 2/3 的句子包含否定形式,使用零样本学习方法对现有开源语言模型进行测试,结果表明尽管模型对于肯定的句子有较高准确 - 通过人类和语言模型引导,从零开始构建知识图谱
通过启动众包工人和大规模语言模型(LLM)的反馈,我们提出了一种从零开始构建知识图谱的方法,用于建立一个日本事件知识图谱,并训练出日本常识生成模型。实验证明了该图谱的可接受性以及训练模型产生的推理能力。
- 越少越好:基于基础模型的零样本局部场景图生成
通过 ELEGANT 框架,利用视觉感知、场景图生成和认知能力,提出了局部场景图生成的新任务,并通过与基础模型之间的协作和信息传递实现了零样本的局部场景图生成,从而展示了其强大的推理能力。
- 对话情感检测的动态因果解缠模型
我们提出了一种基于隐藏变量分离的动态因果解缠模型,通过分解对话内容并研究情绪的时间性积累,从而实现更精确的情绪识别。我们在两个常用的对话情绪检测数据集上验证了该模型的优越性。
- 用二分图来增强情感推理与常识知识
基于 Bipartite Heterogeneous Graph 方法和 Multi-dimensional Heterogeneous Graph Transformer 的知识融入方法,在情绪推理中利用上下文感知和常识知识,且能够通用地 - CommonsenseVIS: 自然语言模型的常识推理能力可视化与理解
利用外部常识知识库将模型行为与人类知识对齐,并通过多层次可视化和交互式模型探索和编辑,帮助自然语言处理专家在不同场景中对模型的概念关系推理进行系统且可扩展的可视化分析。