可解释的低资源法律裁决
本文在考虑高风险决策领域如何利用深度学习解决实际问题的情况下,设计了一个法律引用预测任务,利用先例和立法规定为参考,引入用户反馈并且添加可解释性,最终达到了律师使用的决策参数,并建立在最先进的法律语言处理模型和实际社会影响的关键考虑上。
May, 2023
本文提出增强学习可用于学习不同用户可解释的模型,由此建立他们对机器学习模型的信任。通过与医生交互,基于神经网络模型,设计了一个基于强化学习的临床决策支持系统,结果表明,机器学习专家无法准确预测哪个系统输出将最大化临床医生对底层神经网络模型的信心,这些结果对将来机器学习可解释性研究以及机器学习在医学中的应用都具有广泛的意义。
Nov, 2018
本文综述了神经网络的解释工具和算法,提出了一种新的分类方法,介绍了解释结果的评估方法和信任度算法的应用,讨论了深度模型解释与鲁棒性和借鉴解释的联系,并介绍了一些开源库。
Mar, 2021
本文是对解释性深度学习系统安全性探索的首次系统研究,发现现有 IDLS 的脆弱性高,提出了一种新的类对抗攻击 ADV^2,并通过实证研究证明了其具有欺骗性和实名性的可行性。文章发现了预测 - 解释不一致性是导致该脆弱性的根源,并尝试针对此进行了一些对策。
Dec, 2018
本研究介绍了一种利用拓扑和几何数据分析技术来推断临床和非临床文本的两个深度学习分类模型中的突出特征的方法,并通过概率度量距离获取诊断模型决策信息的稳定性来证明这一方法的可行性。
May, 2023
基于深度学习的解释性可视化方法在人工智能领域日益被重视,本文总结了目前解释深度学习模型的最新发展,并提出两种解释预测的方法,并将这些方法用于三个分类任务中进行评估。
Aug, 2017
本文综述了神经影像领域中可解释深度学习模型的当前状态和应用,讨论了其相关方法、挑战和意见,以及如何利用模型解释性捕捉与模型预测相关的解剖和功能性大脑变化,最后讨论了当前做法的局限性,并提供了有关如何引导未来研究方向以使深度学习模型更加可解释并推进对脑疾病科学理解的宝贵见解和指导。
Jul, 2023
在高风险领域中,机器学习模型已经被广泛用于辅助决策,而开发可解释的模型的兴趣逐渐增加。然而,是否这些模型能实现预期的效果,我们缺乏实验研究来证明。本研究开展了一系列预先注册的实验,展示了具有不同要素的模型,以调查它们的可解释性。结果表明,模型越透明、特征越少,参与者越能成功地模拟模型的预测,但是参与者并没有更加倾向于紧密关注其预测,而拥有透明的模型却使参与者因信息过载难以检测和修正模型的重大错误。这些结果强调了开发可解释模型时实验测试的重要性。
Feb, 2018
解释性是可信任机器学习的一个关键要求,因为通过学习和发布一些内在可解释的模型可以泄露有关底层训练数据的信息,而这可能直接与隐私冲突。本文提出了一个新的框架,用于处理其他形式的可解释模型和更普遍的知识,并证明在对可解释模型结构做出现实的假设的情况下,可以有效地计算重建的不确定性。最后,我们通过比较精确学习算法和启发式学习算法关联的理论信息泄漏,说明了我们方法的适用性,使用决策树和规则列表。我们的结果表明,对于给定的准确性水平,最优解释性模型通常更紧凑,泄露的关于训练数据的信息更少。
Aug, 2023
本文介绍了一种名为 IMLI 的基于最大可满足性的可解释学习框架,通过结合小批量学习和迭代规则学习的方法,实现了分类规则的合成。实验结果表明,IMLI 在预测准确性、可解释性和可伸缩性之间取得了最好的平衡,并用于学习流行的可解释分类器,如决策列表和决策集。
May, 2022