培养人工智能和机器学习的信任并量化价值
本文提出了一种量化解释性方法质量的量化度量,并在众包实验中通过信息传输速率得到了实证证据,从而说明解释性方法的价值。同时,还提出了一种信任度量,以检测人类决策是否过度偏向机器学习预测。
Jan, 2019
本研究提供了一种系统的方法来将社会科学信任概念与建立在人工智能服务和产品上使用的机器学习技术相关联,探讨了四种类别的机器学习技术 (公平性、可解释性、可审计性和安全性) 如何影响人们的信任,并介绍了在 AI 系统生命周期的不同阶段建立信任的技术需求。
Nov, 2019
研究了基于不同特征的人工智能辅助决策场景下,人类对人工智能的信任度与信任度校正,以及人类与人工智能协同工作的影响因素。结果表明,人类信任度的校正能够通过特定的置信度得到有效提高,尽管人类的专业独特知识对于决策的最终结果有良好的辅助作用,但同时也存在着使用本地解释会出现的问题。因此,我们需要探索新的可信度解释方法来更好地衡量和校正人类对人工智能的信任度。
Jan, 2020
本文研究在自动化机器学习(AutoML)领域中的信任问题,发现在AutoML工具中包含透明度特性可以增加用户的信任和理解度,其中模型性能指标和可视化是建立用户信任AutoML工具时最重要的信息。
Jan, 2020
研究人员探究了人们在处理两项困难任务时,对机器学习(ML)建议的信任程度;他们发现,即使人们了解这些任务,并给出了表明该系统不自信的信息,但在执行大部分时间正确的任务时,人们也会相信错误的ML建议,并且提供了四种不同类型的系统信息可增加人们对建议的信任,并且数学和逻辑技能对于使用ML建议的决策者来说可能与ML一样重要。
May, 2020
人类如何信任人工智能及如何评估其可信度及可靠性这是应用机器学习中最为基础的问题。基于统计学习理论和社会视角,我们提出一种将人工智能作为工具的框架,即从区别人机信任与人机人信任的角度出发,运用行为证书来预测模型的行为并澄清了解释能力对于信任的贡献以及模型行为对于信任的重要性。
Feb, 2022
人工智能系统的可靠性和决策呈现方式对用户建立AI系统的心理模型至关重要,现代自然语言处理系统常常不可靠,导致系统信任被削弱,研究发现用户对错误和不准确的信心估计会对信任和性能造成损害,并且这种损害缓慢恢复,这些发现凸显了用户面向的人工智能应用中测定是否信任该系统时校准的重要性。
Oct, 2023
提出了TOWER技术,它是第一个自动创建可靠性判断器的技术,该技术可以根据解释技术的输出自动评估与模型无关的文本分类器的可靠性。通过使用噪声数据获得的不可靠模型进行无监督学习,找到TOWER的最佳配置。在人工标记的可靠性数据集上评估TOWER,结果显示TOWER能够检测到可靠性的降低,但在与人工标记的数据集对比时效果不佳。初步实验结果表明我们的假设是有效和有前景的,但还需要进一步研究以更好地了解解释和可靠性问题之间的关系。
Jun, 2024