- EXPIL:游戏学习中的解释性谓词创造
通过自我发明谓词来减少对预先定义背景知识的依赖,从而实现对逻辑代理的可解释行为。
- 大型语言模型对因果图发现的有效先验
整合专家提供的背景知识可以改善观测数据的因果结构发现,并且由于对比人工专家而言查询它们的成本较低,最近开始将大型语言模型(LLM)视为提供先验信息的来源。本研究首先提出了一组用于独立于下游算法评估 LLM 判断因果图发现的度量标准。其次,我 - COLINGCLEVR-POC:部分可观察环境下的推理密集型视觉问答
CLEVR-POC 是一个基于部分可观察环境下的逻辑约束的推理密集型视觉问答基准,通过集成 GPT-4 大型语言模型、视觉感知网络和形式逻辑推理器,展示了在可用且至关重要的环境特定背景知识下实现卓越性能的神经符号模型。
- ICLR如何评估您的合成数据的真实性?给表格数据的深度生成模型设限
将深度生成模型(DGMs)转换为受限深度生成模型(C-DGMs),以确保生成的样本符合给定的约束条件,并且在训练和推理时能够利用约束提高模型性能。
- 神经符号学习系统中的优化
神经符号 AI 旨在将深度学习与符号 AI 相结合,以减少训练神经网络所需的数据量,提高模型给出答案的可解释性和可解性,并验证经过训练的系统的正确性。我们研究神经符号学习,既有使用符号语言表示的数据,也有背景知识。通过模糊推理、概率推理以及 - 一个逻辑一致的思路链式方法用于立场检测
Zero-shot stance detection enhanced by logically consistent chain-of-thought and supplementary external knowledge outper - 基于知识驱动的具有注意机制的神经网络调制方法用于下一步活动预测
预测性过程监控 (PPM) 旨在利用历史过程执行数据预测正在进行的执行将如何持续到完成。本文介绍了一种基于符号化过程模型的背景知识的 Symbolic [Neuro] 系统,以解决训练数据下采样的问题,并使用关注机制的神经网络进行预测,该系 - 比较可微分逻辑用于学习系统的研究预览
通过将背景知识编码为逻辑约束,用可微分逻辑指导学习过程,创造性地满足约束的机器学习模型进行了比较和评估,并提出了未来工作的开放问题。
- MM加强模态逻辑的一致性结果
该文章介绍了用于命题模态逻辑的通用理论,并以此来解决一些与认识论相关的问题,该理论具有确定性、一致性及适用性等特点。
- 交互式对比解释 (REASONX)
REASONX 是一种基于约束逻辑编程的解释工具,提供可以增加背景知识的互动对比解释,针对机器学习模型和决策树进行解释,并具有更高的灵活性。
- AAAI马尔可夫等价有向无环图的高效枚举
提出了一种线性时间延迟算法,用于枚举由 Meek 和 Chickering 规则产生的马尔可夫等价类中的有向无环图,并在实验中评估其有效性,同时向马尔可夫等价本身提供了新的见解。
- 走向人类兼容的可解释人工智能:利用背景知识进行概念归纳解释数据差异
本文基于形式逻辑推理构建的概念归纳法,展示其在本体工程和可解释的人工智能(XAI)领域中的应用,特别是在解释数据差异方面进行了研究,结果表明此方法可解释并可读。我们使用从维基百科类别层次结构中精选出的大类层次结构作为背景知识。
- 基于知识的神经符号潜变空间类比推理
本论文提出了一种结合神经网络的模式识别能力、符号推理和背景知识来解决类比推理问题的框架,并应用于 RAVEN 的递进矩阵上,取得了与人类表现有竞争力甚至更优秀的结果。
- 使用符号理论来实现可扩展的场景图生成模型正则化
本研究提出了一种正则化技术,可以将符号背景知识注入深度学习模型,从而提高场景图生成模型的准确性,实现较大的背景知识规模尺度,不增加推理成本。
- 消除不可能,剩下的必然是真实的
研究使用背景知识使得可解释的人工智能更简洁易懂,并使用现有的规则归纳技术从数据集中提取背景信息来做出预测并报告使用的背景信息,帮助人类检查解释的正确性。
- ACL通过文档语义图增强基于信息场景的对话知识选择
本研究提出了一种将对话模型中的背景知识文档自动转换为文档语义图以对其进行知识选择,并联合应用多任务学习来改善句级和概念级知识选择的方法,并通过实验证明其在诸如 HollE 和 WoW 等领域的知识选择任务和端对端响应生成任务上均优于基于句子 - ACCoRD:科学概念多文档生成多样化描述方法
提出 ACCoRD 系统来生成科学概念的多重描述,通过利用科学文献中提到概念的众多方式,以不同的参考概念为基础,生成对目标科学概念的不同、多样的描述。我们开发了一个标注工具 ACCoRD 语料库,包括 1,275 个标记上下文和 1,787 - IJCAI逻辑约束下的深度学习
本文综述了利用逻辑指定的背景知识以获取性能更好、学习数据更少或保证符合背景知识的神经模型的研究,并根据表达背景知识的逻辑语言和实现目标进行分类。
- ACLE-KAR:自然语言类比推理基准测试
该文提出了一种可解释的基于知识的类比推理基准 (E-KAR),通过收集并手动注释民族公务员考试中的问题及备选答案来测试基于神经网络的类比问题回答和解释生成能力,结果表明该基准对于某些最先进的技术仍具有挑战性。
- AAAI通过发现无需搜索的地方来学习逻辑程序
通过发现假设约束来提高学习效率和可扩展性,我们提出了基于约束驱动的规约归纳逻辑编程系统,对多个领域进行了实验,证明其可以显著缩短学习时间并扩展到具有数百万事实的领域。