通过将 AI 辅助决策视为人类决策过程中的 “推动”,我们提出了一个计算框架,用于解释不同形式的 AI 辅助对决策者的影响,并根据真实数据对其进行评估。研究结果显示,该框架在准确预测 AI 辅助决策中的人类行为方面优于其他基准模型,并提供了不同认知风格的个体受到不同形式 AI 辅助时的洞见。
Jan, 2024
本文提出了一种基于快速 / 慢速求解器和元认知组件的通用架构,意在通过现有认知人类决策理论对 AI 系统的一些重要人类能力进行提升,并在此基础上尝试应用于基于有限环境下导航决策等方面,实验结果表明,这种决策策略组合可以大大提高系统的决策质量、资源消耗和效率。
Jan, 2022
利用认知科学的知识建立数学模型并提供了一个普遍的框架,用于理解认知偏差和人工智能精度之间的相互作用,特别是锚定偏差,通过一项有效的时间分配策略,成功提高了人工智能的协作性能。
Oct, 2020
本文提出了一个理论框架和相应的范式,用于分析可解释人工智能如何影响人们的行为和认知,结合行为改变的研究洞察。它提出了衡量 AI 影响并理解其对最佳、安全和道德的人机协作的益处的方法,同时认为本地和基于概念的解释更接近于推动,而全局和反事实解释更接近于促进能力。
Oct, 2022
本文提出了一种针对 AI-nudging 的审计框架,旨在确保 AI 系统通过符合审计标准,使用大量数据提供个性化、动态反馈和接口时,保持一定的道德惯性和中立性,并在发生意外负面影响时提出风险缓解机制,而在发生意外积极影响时提出加强机制。
Apr, 2023
通过向用户提供自动偏见的解释,本研究试图提高用户的自主性,降低 AI 决策风险,并使用户避免 AI 失误,但用户对 AI 的不信任导致了此方法的普遍性问题。
Jun, 2024
本研究提出借鉴认知理论以推进 AI 的研究方向,通过嵌入因果组件来获得适应性、推理能力、常识理解等人类决策能力,以期激发 AI 技术研究,进而更好地理解人类和机器智能。
我们设计和实施了一个基于人工智能的平台,通过图神经网络推荐系统和佩戴式健身设备的精细健康行为数据,实现了对新加坡 84,764 位个体在 12 周内进行个性化和情境化的推送。统计验证表明,接收到优化的人工智能日常提醒的目标群体的日常体力活动,例如步数增加了 6.17% ($p = 3.09 imes10^{-4}$),每周中度至高强度体力活动时间增加了 7.61% ($p = 1.16 imes10^{-2}$),与未接收任何提醒的对照组相比,呈现出显著改善。此外,这些提醒被广泛接受,13.1% 的提醒被打开(开启率),其中 11.7% 的提醒被评为有用,1.9% 的提醒被评为无用,从而显示出人口级参与度的显著提高。
本文提出了基于 Khaneman 的系统一 / 二框架的重要扩展,并推出了一个名为 “Value-Inspired AI(VAI)” 的神经符号计算框架,该框架旨在实现机器智能在人类社会中共享人类价值观的能力。通过利用显式表示的共享价值观,VAI 系统能够更易于理解和解释,从而促进基于价值的决策制定,以应对高风险场景(如医疗保健和自动驾驶等)。最后,我们还提供了该领域目前取得的进展以及未来发展方向的洞见。
Dec, 2023
通过社会科学根植的正式概念框架,系统、集成和跨学科地探究人类价值如何支持设计道德人工智能,从而解决价值对齐问题和其他相关的挑战,如人工智能学习人类价值观、将个人价值观聚合到群体中和设计计算机机制来处理价值观。
May, 2023