- DELTA:基于大型语言模型的分解型高效长期机器人任务规划
提出了一种名为 DELTA 的新型 LLM 驱动的任务规划方法,通过将环境拓扑图作为 LLM 中的环境表示,以快速生成精确的规划问题描述;同时利用 LLM 将长期任务目标分解为自回归的子目标序列,以供自动化任务规划器解决;该方法提供了更高效 - ITCMA:一种基于计算意识结构的生成式代理
内部时间意识机器(ITCM)结构的介绍和基于 ITCM 的智能体(ITCMA)在理解隐含指令和应用常识知识方面的改进,通过考虑智能体与环境的互动和推理,ITCMA 在实用性和泛化性方面表现出更优越的性能。
- 逻辑守护者:发现、提取和利用常识知识
本文研究了文本到图像模型,在细节导向的条件控制下,实现了更精细的空间控制。然而,某些生成的图像仍然不合理,尽管有丰富的对象特征和和谐的风格。我们发现,作为常识知识,深层次的逻辑信息在理解和处理图像中起着重要作用,但几乎所有模型都忽视了图像中 - 大型语言模型是否具有时间性基础?
大型语言模型在时间上没有实质依据,缺乏自洽性并且表现出不一致的行为性。
- 探索大型语言模型作为机器人的常识知识来源
本研究使用大型语言模型(LLMs)研究了服务机器人需要常识知识帮助人类在日常情境中,以便他们理解其行为的上下文。实验揭示了在选择性提取情境行动知识方面的有限效果,表明单独使用 LLMs 可能不足够。然而,大规模提取一般性、可行性知识显示出潜 - 面向目标驱动的人工智能综述
人工智能在几个关键方面仍然比人类智能有限,如在理解上下文、言外之意和微妙线索方面的能力。本文展望了可能用于缩小人类智能与机器智能差距的机器智能候选方法,重点讨论了当前人工智能技术的不足,以及层次规划和能量基、潜变量方法以及联合嵌入预测架构方 - KETM:一种知识增强的文本匹配方法
文本匹配是将两段文本进行匹配并确定它们之间的关系的任务,本文提出了一种名为知识增强文本匹配模型(KETM)的新模型,通过从外部知识源中丰富上下文表示来增强模型的理解和推理能力。实验证实了我们的模型在四个数据集上表现良好,并且与不添加外部知识 - RuleBert: 针对预训练语言模型的软规则教学
本研究通过教授 PLMs 如何使用软 Horn 规则来提高其推理任务的性能,并通过一个分类任务和损失函数来辅助训练,从而实现了高精度的推理。
- ACL情感因果抽取的多任务学习与适配知识模型
本研究提出利用常识模型和多任务学习相结合的方法,在情感识别和情感原因标记方面取得显著成效,并在模型性能分析方面进行了全面深入的探究。
- CVPR植物不会走在街上:可靠的语义分割的常识推理
本文研究利用部分人工设计和部分学习的规则,描述交通场景中对象之间的关系,将常识知识整合到分割管道中,通过 Probabilistic Soft Logic 验证和改进语义分割问题。在 A2D2 自动驾驶数据集上,实验证明了该方法提高了对图像 - iPerceive: 将常识推理应用于多模态密集视频字幕和视频问答
提出利用上下文线索构建常识知识库推断视频中物体间因果关系的 iPerceive 框架,其中包括机器翻译问题,使用多种模态,如视听和语音等。测试集的结果显示,我们的方法提高了 DVC 和 VideoQA 的性能。
- 归纳学习 Answer Set 程序的 ILASP 系统
该研究论文介绍了归纳逻辑程序设计的目标,提出了一种新的程序学习方法,能够更广泛地适用于偏爱学习,包括默认和异常情况的通识知识,并学习非确定性理论。同时,论文还总结了程序的演变历程,特别强调了可伸缩性。
- 从嘈杂例子中归纳学习答案集程序
本文提出了一种噪声容忍的 ILASP3 系统,并在合成和现实数据集上评估该系统的性能,包括学习从答案集语义中的常识知识以及将其推广到更复杂的数据集、与不同框架的模型进行比较等。
- 基于常识知识迁移的物体检测方法:DOCK
本文介绍了一种从源类别向目标类别传递常识知识以检测物体的可拓展方法,并将该方法应用于 MS COCO 数据集中,发现常识知识可以显著提高检测性能。
- 学习关于日常事件之间的环境关系的细粒度知识
通过普通人提供的社交媒体用户生成内容,我们开发并测试了一种新颖的方法,从中学习关于日常事件之间的因果和条件关系的细粒度常识知识,该方法对于文本和故事理解、信息提取、问题回答和文本摘要具有重要意义,并且我们的实验证明,使用特定主题数据集可以学 - ACL基于脚本知识的语义期待建模:用于指代预测
研究心理语言学,探讨语言预测的影响因素和如何构建计算模型,发现常识知识显著提高模型预测准确性;其次,测试可预测性是否影响指代表达式类型,但未发现任何证据支持该假设。