基于概念的弱监督多任务学习的可解释性
提出了一个将人工智能、机器学习、自然语言处理与深度法律推理结合的混合系统,用于法律判决的多标签分类和解释,通过提供自然语言解释来减轻法律专家的重复劳动密集型法律分类任务。
May, 2024
文章提出了一种基于多任务弱监督的矩阵补全方法,通过建立弱监督任务之间的相关性解决弱监督准确性低的问题,从而提高模型训练的效果。实验结果表明,与传统的有监督方法相比,该方法能平均提高 20.2% 的准确率。
Oct, 2018
该研究提出了一种半监督学习方法,利用一个 “目标网络” 和一个 “置信网络” 进行多任务训练,在大量弱注释未标注数据上优化目标网络,同时用置信网络的分数来加权目标网络的梯度更新,以避免噪声标签对目标网络模型的质量造成损害,并在评估中证明其相对基线的性能得到提高,同时从弱标签中提高了学习速度。
Nov, 2017
本文研究了如何将一个名为 LionForests 的技术应用在多标签分类问题上,通过采用三种不同的策略来解决难以解释的问题,同时提供了定性和定量实验来评估效果。
Jul, 2022
通过使用黑盒深度学习方法,并结合可解释的人工智能和基于概念的方法,在医学图像分析领域提出一种多模态可解释疾病诊断框架,以实现模型可解释性、高性能和标签效率的平衡。
Jan, 2024
本文介绍了一种弱监督的多标签学习方法,可以有效地学习到精细的概念,并通过伪标签来训练分类器和引导主动学习策略。实验结果表明,该方法能够精确地恢复缺失的地面真实值,并显著提高了预测性能。
Sep, 2021
本文提出一种将解释生成模块附加在基础网络之上、共同训练整个模块的自我解释深度学习模型,适用于无监督概念学习,能够生成有关概念的有意义的解释,并且在概念监督方面有一定的可塑性,具有更好的性能表现。通过在多个数据集上的实验,证明该模型比最近提出的基于概念解释的模型表现更好。
Aug, 2021
我们提出了一种基于 “专家混合” 的综合框架,以解决传统模型和机器学习方法在处理复杂系统时的准确性和解释性之间的平衡问题。通过数据驱动的融合多样化的本地模型,充分利用基于原则的先验知识,我们的解决方案支持专家的独立训练,并结合了机器学习和系统辨识技术,同时支持合作和竞争学习范式。为了增强解释性,我们对专家组合的突变进行了惩罚。实验结果验证了我们的方法的有效性,能够产生与目标现象紧密相似且可解释的模型组合。
Jan, 2024
本文提出了一种黑盒优化解释注入的提示方法,以提高文本推理任务的性能,在问题回答、数学推理和自然语言推理等四个文本推理任务中实现了有效的促进效果。
Feb, 2023