- 用因果抽象进行忠实的模型解释
本文提出因果抽象理论作为高层次的 AI 模型解释的数学基础,使用因果抽象分析来确定可解释的高层次因果模型是否忠实反映了 AI 模型的行为和内部结构,同时我们还定义了近似因果抽象的概念以度量高层次因果模型对底层模型的抽象程度,并将 LIME、 - SimpleMind 将思考能力加入深度神经网络
该论文介绍了 SimpleMind,这是一种开源的用于医学图像理解的认知人工智能软件框架,结合了深度神经网络和知识库,通过自动协同优化知识库参数进行推理和决策,从而提高了深度神经网络的可靠性和可解释性。
- 解释性和高性能的仇恨和冒犯性言论检测
该研究建立了一个基于 XGBoost 算法的可解释且易于理解的模型(使用 Twitter 数据)来检测社交媒体平台上的仇恨言论和冒犯性言论,并通过 Shapley Additive Explanations(SHAP)方法,使得模型能够解释 - 学习可解释的决策规则集:一种次模优化方法
本文介绍了一种基于子模优化的学习规则集的方法,将子问题转化为特征子集选择任务并利用子模函数差值的思想使得问题更易解决,实验结果表明这种方法简单、可扩展且具有较好效果。
- 基于模式的文本分类器的争论性说明
本文针对可解释模型的解释方法进行研究,提出了一种基于计算论证的 AXPLR 方法, 用于从特定的可解释模型 PLR 中提取易于理解的解释,并在人工智能协作方面进行了实证评估和两个实验的研究。
- AAAI可解释的、可解释的基于神经符号学习的糖尿病视网膜病变分类
本文提出了一种可解释的和可解释的基于神经符号学习的糖尿病性视网膜病变(ExplainDR)分类模型,其中对决策制定应考虑高层符号表示以获得可解释性。特别是,我们介绍了人类可读的符号表示,该表示遵循与眼部健康相关的糖尿病性视网膜病变特征的分类 - 使用有限元网络从稀疏观测中学习物理系统动态
本文提出了一种用于任意分布的点的时空预测的新方法,该模型可以利用偏微分方程来推导数据动态的连续时间模型,通过有限元方法,在空间域的网格化中估计未知动态对每个单元格的瞬时影响,我们的模型可以通过假设方程的形式来将先前知识纳入其中,并从对流方程 - 可解释的多层子目标发现强化学习
提出一种新的强化学习(Reinforcement Learning)模型,具有可解释性且支持深层次子目标(subgoal hierarchies)的发现。该模型使用概率规则学习有关环境的信息,而(子)目标的策略则是它们的组合。学习无需奖励函 - KDD自动分量提升:可解释性自动机器学习系统
提出了一种 AutoML 系统,其构建了可解释的加法模型,使用高度可扩展的分量提升算法进行拟合,提供了易于模型解释的工具,并且在预测性能上与其他基于 AutoML 比较系统相媲美,更易于使用和透明。
- 用于表格生物医学数据的局部稀疏神经网络
本研究提出了一种适用于生物医学领域、intrinsically interpretable 的神经网络框架,采用局部稀疏网络和 gating 网络实现对样本的 sample-specific sparsity 预测,减少了对小样本数据的过拟 - AAAI从神经网络中学习准确且可解释的决策规则集
本文提出了一种新的范式,使用一个可解释的二层神经网络学习一组独立的逻辑规则作为分类的模型,并提出一种基于稀疏性的规则得出算法,相比其他学习算法和黑匣子模型,该方法可以在分类准确性和简单性之间取得更好的平衡。
- AAAI知识注入的策略梯度方法用于自适应疫情控制
本研究提出了一种基于知识注入的政策梯度方法,通过处理认知不均衡、将公共健康专家知识融入模型以及提高模型可解释性等方面,解决了 COVID-19 流行病控制中存在的困难,实现了快速、有效的应对新知识和产生可解释的政策。
- CVPR神经原型树用于可解释的细粒度图像识别
本研究提出了神经原型树(ProtoTree)方法,将原型学习与决策树相结合,从而通过设计在全局上产生可解释的模型。此外, ProtoTree 可以通过在树中勾勒一个决策路径来在本地解释单个预测并通过集成方法、修剪和二值化调整准确性与可解释性 - ICCV通过诱导符号空间进行可解释的视觉推理
该研究旨在通过目标 - 中心的组合式注意力模型(OCCAM)和符号概念空间,从与图像相关的问题 - 答案对中识别概念和它们的分层关系,并实现一个可解释的模型。该模型通过设计新的 OCCAM 框架执行视觉推理任务,并提出一种方法,从对象的视觉 - KDD上下文感知的关注知识追踪
本文提出了一种基于神经网络的注意力知识追踪模型(AKT),结合了新颖的解释性模型组件,用于个性化学习和自动化反馈,实验证明 AKT 可以优于现有的 KT 方法,并且具有良好的可解释性。
- AAAI通过查询回答学习可解释的动作模型的正确方法
本文提出了一种新的方法,使用最少的查询界面,采用分层查询算法来生成询问策略,以估算黑盒自主智能体的可解释性实体模型,并使用谓词分类器学习代表状态的图像的规划智能体的可解释模型。经验证明,尽管可能存在无法搜索的潜在空间,但我们的方法允许对各种 - 基于网络特征提取的对抗性防御
该研究提出了一种基于分解 DNN 模型到不同功能块的方法,通过将每个图像的有效路径聚合到类级别的有效路径来检测对抗性图像,从而实现更好的准确性和更广泛的适用性。
- 可解释的视听视频字幕生成尝试
本论文介绍了一个多模态卷积神经网络视频字幕框架,通过引入模态感知模块,探索了视听交互对视频理解的影响,并证明该可解释模型在情况选择时取得了可比较的性能。
- 一种具有全局一致解释的可解释模型,用于信用风险评估
本文提出了一种可解释的两层加性风险模型,该模型可用于信用风险评估,并提供了三种更简单的解释方法以及新的在线可视化工具。
- AAAI处理聊天机器人中的闲聊的可信、负责和可解释系统
本文介绍面向聊天机器人的查询理解决方案,包括基于层次化意图的请求分类和使用序列生成模型,以及综合性组件的集成,如成人 / 攻击性分类、语法 / 正则表达式、引导性反应和响应生成模型,以解决这一难题。