研究表明,在机器学习中,准确度比可解释性更重要,添加解释可能会损害用户信任,同时高度真实的解释不能欺骗用户的信任,用户的信任感与其实际表现不符。
Jul, 2019
采用心灵理论将人的意图、机器理解和人对机器的理解显式建模,生成更优质的AI解释框架以提高人们对复杂机器学习模型的信任。在3个视觉识别任务中展示了该框架的实际应用性,而且经过大量的人类实验证明该框架的效果比现有的同类算法要更好。
Sep, 2019
研究表明通过引入可解释的AI助手来解释新闻评论平台中的假新闻,有助于改善用户对算法透明度的理解和信任程度,并提高他们的准确性。
Jul, 2020
该研究旨在通过构建透明的AI系统来提高人机交互的信任关系,并通过引入图灵测试来建立可信度评估体系,以便解释机器学习模型的结果,证明透明的ML方法能够通过人机交互获得信任,但也需要注意到人类与机器的辨别能力。
Jun, 2021
本研究探讨了可解释性人工智能(XAI)中说明的特征和其效用评估,强调了说明的功能角色、用户知识状态以及生成说明所需的信息的要求,并定义了XAI领域的重要下一步:建立指导和基础系统生成说明效用的度量标准,以避免XAI可能带来的对系统的信任而没有建立其可靠性。
Jun, 2022
本文中,我们强调了不仅理论论证了疑虑作为独立于信任的第二个构想的重要性,而且从心理测量的角度证实了它们之间的区别。尽管尚未确定可用的心理测量证据是否足以支持疑虑的存在,但XAI社区应保持对考虑信任和疑虑以更全面的方式理解这两个相关构想的开放性。
Mar, 2023
本研究提出了一个基于元认知理论的反错误信息代理人,并在Twitter上进行了实验评估。结果表明,单一策略并不优于对照组,透明和清晰的逻辑对用户参与至关重要,同时也确认了人们对于重复接触错误信息和缺乏用户参与的担忧。
Apr, 2023
人工智能系统的可靠性和决策呈现方式对用户建立AI系统的心理模型至关重要,现代自然语言处理系统常常不可靠,导致系统信任被削弱,研究发现用户对错误和不准确的信心估计会对信任和性能造成损害,并且这种损害缓慢恢复,这些发现凸显了用户面向的人工智能应用中测定是否信任该系统时校准的重要性。
Oct, 2023
我们开发了一个模拟框架,用于研究在线社交网络中的虚假信息传播,结合基于代理的建模和自然语言处理技术。
Jan, 2024
通过向用户提供自动偏见的解释,本研究试图提高用户的自主性,降低 AI 决策风险,并使用户避免 AI 失误,但用户对 AI 的不信任导致了此方法的普遍性问题。
Jun, 2024