CoRTX: 实时解释对比框架
通过利用大型语言模型的世界知识,我们提出了一种通过解释来增强术语表示并显著改进术语聚类的对比学习方法(CoRTEx),并通过修改的 BIRCH 算法将 Biomedical Informatics Ontology System (BIOS) 中的 35580932 个术语分成 22104559 个聚类,证明了 CoRTEx 在处理大规模生物医学本体术语聚类方面的优越性。
Dec, 2023
通过 Learning to Explain(LTX)模型 - 无关框架,我们提供视觉模型后期解释的高亮关键区域的解释图,实现对基于 Transformer 和卷积模型的解释性,显著优于当前各种度量的最新工作。
Oct, 2023
本文提出了一种优化自由的快速反事实解释算法,利用多领域图像到图像转换算法,通过训练条件变换器实现转换查询图像到任意反事实类别,并仅需在前向时间内仅使用它就能生成解释,该算法较之其他算法更快且更实际可应用。
Jul, 2020
提出了使用 RES 框架进行监督解释的方法以提高深度神经网络的外推泛化性和内在的可解释性,该框架可解决标注不准确、区域不完整和分布不一致等挑战,经测试在两种实际图像数据集上均表现较好。
Jun, 2022
本研究提出了一种基于概念和关系的解释方法(CoReX),用于解释和评估卷积神经网络(CNN)模型,以及支持识别和重新分类错误或模糊分类。
May, 2024
提出了 CREX 方法,通过合理利用证据材料、避免数据依赖性偏见、依靠机器辅助生成、并配合专家审查,增强深度学习模型的可信度,相关实验也显示 CREX 在增加深度学习模型可信度方面具有显著效果。
Aug, 2019
本文旨在提高可信的 AI 系统的有效性和可解释性,定义一个新类型的多模态解释来解释决策,并提出一种新的解释生成方法,可以显式地模拟词语和感兴趣的区域之间的配对关系,同时开发了一个包含 1040830 个多模态解释的新数据集以及进行了广泛的分析,以研究不同设置下解释的有效性和推理性能。
Mar, 2022
通过语义聚类的方法,该研究提出了对强化学习(RL)代理行为进行总结的方法 CODEX,以解释代理行为并建立用户信任。实验结果表明,CODEX 方法能够保留时间和实体信息,构建代理行为的总结。此外,对游戏环境中的离散 + 连续游戏状态潜在表示进行聚类,可以确定最关键的情节事件,展示了潜在空间和语义空间之间的关系。这项研究以自然语言处理技术为基础,为解锁 RL 在广泛应用中的潜力做出了贡献。
Dec, 2023
本文提出了 UNIREX 灵活的学习框架,旨在优化解释提取,它可以替换现有启发式算法设计,并针对准确性、可信度和 PLAUSIBILITY 这三个需求进行优化,同时可以使用标准化相关增益(NRG)指标评估模型性能。在五个文本分类数据集上的实验表明,本文提出的 UNIREX 配置比基线平均提高了 32.9%的 NRG。与此同时,研究还发现 UNIREX 训练的解释提取器可推广到未见过的数据集和任务。
Dec, 2021