关系特征组合及其在解释黑盒预测器中的应用
本研究提出一种新颖的神经模块化方法来实现基于组合推理的问题回答,该方法不需要强监督,能自动诱导期望的子任务分解并通过共享模块链接不同的推理任务,实验表明该模型比当前先进模型更易于人类评估者解释以及预测其中间结果的成功或失败。
Jul, 2018
该研究旨在弥合深度学习和符号AI之间的差距,提出了一种新型的端到端神经网络架构,可以从原始像素数据学习形成具有显式关系结构的命题表示。通过评估和分析体系结构,引入了一系列不同复杂度的简单视觉关系推理任务。结果表明,预先训练这种任务的课程,可以学习生成可重复使用的表示形式,在比较多个基线架构后更好地促进了先前未见过的任务的后续学习。 最后,研究者通过可视化成功训练过的模型的工作方式,揭示了体系结构的功能。
May, 2019
本文提出了一种能够利用归纳逻辑程序系统ALEPH所得到的逻辑规则来解释分类器决策的方法,并利用图像生成方法LIME进行实例和背景知识的学习,通过图像展示了该方法的应用,证明了该方法能够识别图像中的关系,并生成更丰富的解释。
Oct, 2019
该研究介绍了一个名为ConceptWorld的环境,用于生成通过逻辑领域特定语言定义的构成和关系概念的图像。研究测试了标准神经网络和关系网络的泛化能力,并提出了一个潜在的基准模型,以鼓励在构成和关系领域有效泛化的模型的发展。
Jun, 2020
本研究探讨了在深度学习中通过将关系和感觉信息分隔,以及引入归纳偏差来改善系统的推理性能,并提出了基于相似性分数的简单架构 -- Compositional Relational Network (CoRelNet), 增强了模型的鲁棒性,提高了关系计算的分布外泛化能力。
Jun, 2022
我们提出了一种解决关系领域中可解释深度学习模型设计问题的方法:关系概念模型(Relational Concept-Based Models)。实验结果表明,关系概念模型与现有的关系黑匣子模型在泛化性能上相匹配,并支持生成定量概念解释,有效地响应测试时干预,并适应多种严苛环境,包括分布不均、训练数据有限和概念监督不足。
Aug, 2023
对深度预训练模型进行微调最近揭示了其具有组合特性能力,从而使得多个专门模块能任意组合成一个多任务模型。本文通过对损失函数的二阶泰勒近似方法进行理论研究,试图揭示标准非线性网络中组合特性的奥秘,强调了处于预训练盆地内对于实现可组合模块的重要性,并提出了两种双增量训练算法:一种从多个独立模型进行训练的角度,另一种旨在优化整个组合模型。我们测试它们在增量分类任务中的应用,并突出了一些可贵的技能。实际上,增量学习的模块池不仅支持创建有效的多任务模型,还能够进行遗忘和特定任务的专门化。
May, 2024
人工智能(AI)目前主要基于黑箱机器学习模型,缺乏可解释性,解释性人工智能(XAI)的研究旨在解决这一主要问题;本论文提出一种基于范畴论的定义AI模型及其可解释性的方法,通过使用组合模型的概念,以形式化的字符串图表达抽象结构和具体实现,包括确定性、概率性和量子模型,并比较了广泛的AI模型作为组合模型,包括线性模型、基于规则的模型、(循环)神经网络、变换器、VAEs以及因果图和DisCoCirc模型;定义了模型的解释性,演示如何分析模型的可解释性,并用此来阐明XAI中的共同主题;发现标准的“本质可解释性”模型在图表中展示得最清晰,从而引出了更一般的组合可解释(CI)模型的概念,其中还包括因果性、概念空间和DisCoCirc模型;演示了CI模型的可解释性益处,包括通过组合结构计算其他感兴趣量,通过匹配结构实现从模型到被模拟现象的推理,以及基于影响约束、图表手术和重写解释的图表解释行为;最后讨论了该方法的未来发展方向,提出了如何在实践中学习这种有意义结构的模型的问题。
Jun, 2024
利用人工神经网络中的向量嵌入和概率分布的条件独立性约束,我们描述了线性代数结构之间的基本对应关系。我们的框架旨在阐明数据表示中结构模式的出现,尽管这一现象被广泛认可,但仍缺乏坚实的形式基础。具体而言,我们引入了一种基于“交互分解”的组合结构特征,并且建立了存在这种结构的表示中的必要和充分条件。
Jul, 2024