- 利用知识注入学习提高多模态营销中的上下文一致性
通过将常识知识图与大型视觉语言模型结合,改进了多模态营销活动的效果预测,并实现了对可能具有说服力的多模态活动的早期检测以及对营销理论的评估和增强。
- 一个语义空间足以呈现 256 种语言描述:利用描述性属性增强分割模型
ProLab 是一种创新的方法,通过使用基于属性级标签空间来创建强大且可解释的分割模型。它基于两个核心设计:一是使用大型语言模型和精心设计的提示生成具有意义的常识知识的所有类别的描述,二是引入描述嵌入模型以保持描述之间的语义相关性,并将它们 - 垃圾进,垃圾出:使用大型语言模型进行零样本犯罪检测
本文提出利用语言模型学习的常识知识,对监控视频文字描述进行零 - shot 推理,能够实现仅使用零 - shot 推理对犯罪进行检测和分类的性能优秀于现有的视频到文字自动生成模型。
- 儿童文本是否能揭示常识知识的关键?
通过分析多个语料的儿童文本,研究表明孩子们的文本确实包含更多、更典型的常识断言,并且实验表明在基于流行的语言模型的常识知识提取设置中,利用少量的儿童文本进行非任务特定的微调 (childBERT) 已经可以取得显著的改进。
- 从大型语言模型中提取零样机通用常识,用于机器人三维场景理解
提出了一种使用大型语言模型中通用的常识知识为机器人场景中的物品进行标记,该算法不需要任务特定的预训练,并且可以泛化到任意房间和物品标签 —— 这是机器人场景理解算法中非常理想的特征。该算法基于由现代空间感知系统产生的 3D 场景图,并希望将 - ACLEventPlus: 一个时间事件理解管线
EventPlus 是第一个全面的时间事件理解流水线,可帮助用户快速获取任何用户提供的文档中有关事件及其时间信息的注释。此外,我们展示了 EventPlus 可以轻松适应其他领域(例如,生物医学领域),并公开了 EventPlus 以促进基 - 遮蔽式神经语言模型为什么仍然需要常识知识?
本文提出了对预训练 MNLM 的实证分析,观察到 MNLMs 在部分理解各种类型的常识知识的同时又不准确地理解了关系的语义含义,同时通过结合外部常识库的知识证明可以提高预训练 MNLM-based 模型的效能。
- 用于大规模目标检测的混合知识路由模块
该研究论文提出了一种利用人类常识知识,通过多种知识形式推理大规模物体类别以及在图像内达到语义连贯性的方法 —— 混合知识路由模块 (HKRM)。该方法通过整合显式知识和隐式知识两个模块,能够针对每张图片的视觉模式进行个性化和适应性处理,是一 - ACL词汇资源和自然语言处理之间的相互作用
这篇研究论文探讨在人工智能 / 自然语言处理系统中将语言学知识、世界知识和常识知识融合起来,这是一个重要的研究领域,并提出了从构建和丰富词汇资源的过程中使用自然语言处理方法,以及从词汇资源中提取有益信息来改善 NLP 应用的方法。该教程可为 - 用于学习和评估视觉常识技能的 “某某” 视频数据库
本研究收集了超过 100,000 个视频,建立了 something-something 数据库,并描述了 crowd-sourcing 数据所面临的挑战。该数据库包含了一些需要理解物理世界、具有常识性的视频预测任务。
- 不要只听,动动脑筋:利用视觉常识解决非视觉任务
该论文探讨了图像中的视觉常识如何有助于文本任务,包括填空和视觉改写,并提出基于视觉的场景做为辅助实现对这些问题的回答,该方法表现优于基于文字的方案。
- ICLR利用事件嵌入学习语义脚本知识
通过计算谓词和它们的论元的分布式表示,然后使用这些表示来预测原型事件排序,我们的方法从文本中联合估计计算事件表示和模型的排序组件的组合过程参数,证明此方法相较于以往的方法在排序性能方面有明显提升。