在线决策调解
研究在线预测学习的问题,讨论利用新的目标函数进行的非固定、非线性函数近似的脱机学习的关键技能,提供了两个具有挑战性的微观世界中的实证研究结果,总结了脱机学习的相关方法,提供了新的见解,使从业者能够成功应用于大规模应用。
Nov, 2018
本文研究如何创建助手来帮助代理人解决新的顺序决策问题,介绍了一种新的辅助形式来模拟代理人的偏见,并提出了一种新的规划方法来缩放大型的决策问题,目的是为了获得比基于自动化的替代方案更高的累计奖励,最后我们证明了将建议和自动化相结合的方法比仅使用建议具有更好的性能,尽管会失去一些安全保证。
Feb, 2022
通过对已有的案例进行分析,本文提出了交互式人工智能决策辅助系统的设计,旨在通过学习人类的选择来决定何时提供算法支持,从而提高决策的准确性和可靠性。作者在美国刑事司法系统的前期释放审判方面进行了大规模实验,并发现交互式辅助系统能够在必要的时候提供准确的建议,与固定的非交互式系统相比较,可以显著提高人类的决策水平。同时,交互式辅助系统还具有促进人类学习、保护人类决策者补充优势、促进对建议的更积极响应等优点。
Sep, 2022
本研究提出了一种在线学习方法 $ exttt{THREAD}$,通过应用基于随机上下文臂的技术,实现对每个决策者的个性化决策支持策略的定制,同时进行了多目标优化问题的形式化,明确了精确决策和低成本的权衡关系,并引入了 $ exttt{Modiste}$ 交互式工具,并进行了人类实验,展示了 $ exttt{THREAD}$ 在实际用户上在线学习决策支持策略的优势和复杂性。
Apr, 2023
考虑到人对人工智能建议的忽视以及人工智能在最相关时刻有选择性地提供建议的需要,本文提出了一个顺序决策模型,该模型考虑到人的依附水平并引入了一个推迟选项,以便机器能够暂时不提供建议,并提供了能够学习最佳建议政策并仅在关键时间点提供建议的学习算法。与通用强化学习算法相比,我们的专门化学习算法不仅具有更好的理论收敛性能,而且表现出强大的实证性能。
Oct, 2023
了解人类行为以实现决策的透明度和责任感非常重要。我们提出了一种新颖的基于模型的贝叶斯方法进行可解释的政策学习,该方法以数据驱动的方式呈现决策行为,并在偏差的信念更新过程和次优的信念-行为映射之间进行联合估计,能够满足透明度、部分可观察性和完全离线操作等关键标准。通过对阿尔茨海默病诊断问题的模拟和真实世界数据的实验,我们展示了我们的方法作为审计、量化和理解人类决策行为的潜力。
Oct, 2023
通过将AI辅助决策视为人类决策过程中的“推动”,我们提出了一个计算框架,用于解释不同形式的AI辅助对决策者的影响,并根据真实数据对其进行评估。研究结果显示,该框架在准确预测AI辅助决策中的人类行为方面优于其他基准模型,并提供了不同认知风格的个体受到不同形式AI辅助时的洞见。
Jan, 2024
决策与信息展示是可解释人工智能、人工智能与人类协作以及数据可视化等领域的研究重点。然而,何为决策问题以及为何需要实验来得出人类决策存在某种缺陷的结论,这些问题仍然存在争议。我们提出了一种广泛适用的决策问题定义,结合了统计决策理论和信息经济学。我们认为,要将人类表现中的损失归因于偏见形式,实验必须向参与者提供一个理性代理人所需的信息,以识别规范决策。我们评估了近期关于人工智能辅助决策的决策研究评估在多大程度上满足这一标准。我们发现,在35项声称发现存在偏见行为的研究中,只有6项(17%)为参与者提供足够的信息来表征其行为与良好决策制定有所偏离。通过描述性能损失的特征,我们阐述了研究明确定义的决策问题的价值,并对问题表述不清晰的决策问题的模糊性进行了对比,这限制了规范的解释。最后,我们给出了一些建议以促进实践。
Jan, 2024
在人工智能驱动的决策过程中,提供一种人工智能代理与人类决策者之间协同关系的方法是一项重要挑战。本文介绍了一种名为ADESSE的方法,它通过生成解释来提高人类对智能代理的信任和决策能力。实证实验和用户研究结果表明,ADESSE生成的解释能够显著提高参与者的满意度、游戏奖励并减少选择动作的时间,凸显了人为中心解释在人工智能辅助决策中的重要性。
May, 2024