隐私与可解释性:全面影响基准
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
这篇报告对数据驱动方法 - 特别是机器学习和模式识别模型进行了综述和总结,以便于业界从业者和数据科学家更好地理解 “可解释的人工智能” 的领域并应用正确的工具。
Sep, 2020
深度学习在医疗保健研究中通过解决各种自然语言处理(NLP)任务得到了极大的增强。本文对可解释和可解释的医疗 NLP 中的深度学习进行了彻底的综述。发现注意力机制是最主要的新兴 IAI,同时也提出了重要的机会,如利用注意力提升个性化医学的多模态 XIAI 并将 DL 与因果推理相结合。
Mar, 2024
机器学习、可解释人工智能、基于逻辑的可解释性、距离限制解释和扩展性是该研究论文的主要关键词和研究领域,研究了用于计算和枚举大量输入的逻辑解释器性能扩展的新算法。
May, 2024
通过采用机器学习与可解释的人工智能技术,我们创建了五个个性化反馈的可视化方案,以帮助用户准确识别电力消耗数据的特定模式,并显示在具有已知可视化模式的界面上。我们的实验表明,这样的 XAI 可视化方案能够被用户准确理解和应用。
Aug, 2022
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024