- 可解释预测患者路径的机器学习框架:以预测症状为脓毒症患者的 ICU 入院为例
利用机器学习和可解释预测的方法,提供对因脓毒症症状患者的重症监护室 ICU 入院的能力,通过综合仪表盘显示患者的健康轨迹、预测结果和相关风险,提供了改进预测准确性和可解释且可操作的见解,成为危重患者医疗决策支持的有价值工具。
- 使用监督、层次概念学习消除硬概念瓶颈模型中的信息泄漏
提供标签监督和层次化概念集概念预测模式,SupCBM 消除信息泄漏问题,实现准确预测和解释。
- 基于响应影响的反事实推理的可解释知识追踪
本研究提出了一种基于反事实推理的知识追踪框架(RCKT),通过比较实际和构造的反事实序列的预测结果,生成响应影响,从而改善模型的性能和可信度,并对响应影响进行可靠的解释。实验结果表明,RCKT 方法在四个数据集上表现优于六个基准方法,并提供 - 可解释化化学的人工智能:通过对比学习预测自由基机理途径
使用机械途径与对比学习相结合的新反应预测系统 RMechRP,在自由基反应领域提供不同层次的化学反应解释,并在大气化学等各种应用中展现了准确且可解释的自由基反应预测的潜力。
- 可解释的深度输入通道混合对高内容成像的学习通道重要性
利用多光谱信息解读细胞生物学的某个方面的一种新方法,介绍了 DCMIX,一种轻量级、可扩展且端到端可训练的混合层,能够在保留基于深度学习的方法优点的同时学习到与生物相关的通道重要性,通过 MNIST 和 RXRX1 数据集的大量实验验证了 - 大规模语言和多模态模型下的变分信息追求用于可解释预测
通过使用 Foundational Models(FMs),我们扩展了 Variational Information Pursuit(V-IP)框架,以应对数据样本密集概念标注的限制,并显示出 FM+V-IP 与 LLM 生成的概念可以实 - 大语言模型结构化数据提取可解释的医疗诊断
本研究提出了一种从文本医学报告中提取结构化表格数据的新方法 TEMED-LLM,结合具有解释性的机器学习模型,以在医学诊断中实现端到端可解释性的预测, 较传统的文本分类模型在医学诊断方面具有更好的性能表现。
- 使用可解释的神经符号模型检测上下文不一致的多模态错误信息
本文提出了一种可解释的跨模态去上下文检测方法来辨别不匹配的内容和交叉模态的矛盾,可以帮助事实查核网站记录阐明批驳,实验表明该方法在保持准确率的同时能提供更多可解释的预测。
- 选择性输入梯度正则化的雅可比范数用于改进和解释可行对抗防御
本文提出了一种基于 Jacobian 规范和选择性输入梯度正则化(J-SIGR)的新方法,从 Jacobian 规范的线性化健壮性建议,并控制基于扰动的显著性图以模仿模型的可解释预测,这既实现了改进的防御又实现了 DNN 的高可解释性。
- WWW多视图子空间学习的深度共注意力网络
本研究提出了一种基于深度学习的共同关注网络,用于多模态数据的子空间学习,能够提取共性信息和补充信息,并通过协同关注机制向最终用户提供预测的解释。通过引入分类器和交叉重构损失以优化潜在表示和加速收敛速度,最终在合成数据和实际数据集上进行了广泛 - CVPR运用知识蒸馏的时空图像处理技术进行视频字幕生成
本文提出一种基于时空图模型的视频字幕生成算法,利用物体间相互作用关系提供显式的视觉表征,通过一种对象感知的知识蒸馏机制,可以在不稳定的性能中实现对象的稳定预测。经过对两个基准测试的广泛实验,展示了我们方法的有效性和可解释性预测的竞争性能。
- AAAI通过约束输入渐变来提高深度神经网络的对抗鲁棒性和可解释性
本研究评估了不同防御机制对神经网络的有效性,发现使用输入梯度规则化训练的神经网络具有抵御小幅度扰动的鲁棒性,并且可以提高预测的可解释性。同时,对这种神经网络产生的误分类可以解释,并进一步讨论了深度神经网络中解释性和鲁棒性之间的关系。
- 深度片段嵌入用于双向图像句子映射
该研究提出了一种通过多模态的可视图像和自然语言数据的嵌入来实现图像和句子的双向检索的模型,通过对图像和句子的片段进行嵌入到一个共同的空间,实现了片段对齐,从而在图像句子检索任务中显著提高了性能,并提供了可解释的预测结果。