机器学习与知识:鲁棒性的重要性
本章探索了机器学习(ML)中鲁棒性的基本概念及其在建立可信人工智能(AI)系统中的关键作用。讨论从详细定义鲁棒性开始,描绘了 ML 模型在各种意外环境条件下保持稳定性能的能力。通过不同视角剖析 ML 鲁棒性:与泛化能力的互补性,作为可信 AI 的要求,对抗性与非对抗性方面,定量评价指标,以及可重复性和可解释性等指标。本章深入探讨了影响鲁棒性的因素,如数据偏差、模型复杂性和不规范的 ML 流程的陷阱。从广泛的角度调查了鲁棒性评估的关键技术,包括对抗性攻击,包括数字和物理领域。它还涵盖了非对抗性数据转移和深度学习(DL)软件测试方法的细微差别。讨论进一步探索了增强鲁棒性的改进策略,从以数据为中心的方法如去偏和增强开始。进一步的研究包括各种以模型为中心的方法,如迁移学习、对抗训练和随机平滑等。最后,讨论了训练后方法,包括集成技术,修剪和模型修复,作为提高模型对不可预测因素的适应性的经济有效策略。本章强调现有方法对 ML 鲁棒性的估计和实现所面临的挑战和局限性,并为未来关于这一关键概念的研究提供了洞见和方向,作为可信 AI 系统的先决条件。
Apr, 2024
通过将知识获得的有效性和局限性扩展到监督分类器的知识有效性和局限性,我们可以将模型的预测的明确度与该模型的预测的认识不确定性联系起来。通过在神经网络分类器上进行各种形式的支持(例如,基于 K 近邻和基于 l_p 范数的支持),我们可以为个人预测提供可靠性并表征这种可靠性无法确定的区域。
Nov, 2019
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
该研究提出了一个综合评估机器学习系统可靠性的方法,侧重考虑诸如敌对攻击、性能下降以及算法技术等方面的问题,并对 500 多个模型进行了分析,为未来的研究和发展提供了指导。
Jul, 2023
本文研究了不确定性和可解释性之间的联系,特别是探讨了置信度和解释性之间的关系,发现模型的置信度与我们解释模型的能力有交互作用,并提出了一种简单的实践方法来改善解释结果:调整置信度以提高解释效果。
Jul, 2022
通过深入的认识深度神经网络模型与传统科学模型之间的差异以及对可靠性评估可能产生的影响,本文强调了模型的假设的普遍作用和认识复杂性与可解释性之间的紧密关系,并提出了一些潜在的解决途径。
Jan, 2024
研究表明,在机器学习中,准确度比可解释性更重要,添加解释可能会损害用户信任,同时高度真实的解释不能欺骗用户的信任,用户的信任感与其实际表现不符。
Jul, 2019
通过建立透明的算法模型,研究论文探讨了深度学习的可靠性和信任度,使用数学框架分析了不同计算模型下逆问题的可信解决方案,发现 Blum-Shub-Smale Machines 具有潜力在广泛条件下建立可信的解决方案。
Jan, 2024
人类如何信任人工智能及如何评估其可信度及可靠性这是应用机器学习中最为基础的问题。基于统计学习理论和社会视角,我们提出一种将人工智能作为工具的框架,即从区别人机信任与人机人信任的角度出发,运用行为证书来预测模型的行为并澄清了解释能力对于信任的贡献以及模型行为对于信任的重要性。
Feb, 2022