学习如何协同人类
通过利用程序化的科学专业知识,在避免科学群体和其认知偏差的前提下,利用互补智能生成的有价值的预测不能在人类科学家和发明家的时代被想象或追求,并且通过检测和纠正人类认知偏差,为完善科学教育提供了机会。
Jul, 2022
通过联合训练分类器和分配系统的方式来补充多个人类专家的能力,实现了对于人类专家难以预测的情况进行准确预测,并将任务分配给最合适的小组成员,该方法在多个实验中均表现出优越的性能。
Jun, 2022
本研究将人工智能与人类合作的问题重新定义为一种学习问题,提出团队学习策略可提高合作效果和质量,为设计更高效的人工智能合作系统提供了新的视角和框架,并就支持人们学习如何与生成型人工智能系统协作的进一步研究提出了问题和议程。
Jul, 2022
人工智能和人类协作的真正潜力在于利用人类和人工智能的互补能力,实现超越个体人工智能或人类的联合绩效,即实现互补团队绩效 (CTP)。本研究通过 100 位参与者的实验展示了学习与适当依赖之间的关系,为分析依赖和有效设计人工智能决策提供了基础概念。
Oct, 2023
人工智能在各个应用领域可以提高人类决策能力。理想情况下,人类与人工智能之间的合作应该能达到互补的团队表现,尽管迄今为止,很少观察到这种互补的现象,这表明对于决策中人工智能与人类合作中的互补成分的理解仍然不足。本文建立了一个关于理解和开发人工智能与人类互补性的整体理论基础。我们通过引入和形式化互补潜力及其实现的概念来概括互补性。此外,我们确定并概述了解释互补团队表现的来源。我们通过两项实证研究将我们的概念应用于实证验证两个不同的互补潜力源。第一项研究中,我们关注信息不对称作为一种来源,并在房地产评估应用案例中证明人类能够利用独特的背景信息实现互补团队表现。在第二项研究中,我们关注能力不对称作为另一种来源,展示了异质能力如何帮助实现互补团队表现。我们的工作为研究人员提供了关于人工智能决策中互补性的理论基础,并证明利用互补潜力来源是有效人工智能与人类合作的途径。
Mar, 2024
本文提出和开发了一个针对带赌徒反馈的人机协作问题的解决方案,旨在利用人机互补性最大化决策收益,在多个人类决策者的环境中展开并表现出效用,并呈现出当机器和人类各自单独做出决策时,我们的方法胜过两者的能力,以及如何在多个人类决策者的情况下实现个性化路由以进一步提高人机团队的表现。
May, 2021
本文综述认知科学的进展,提出了人工智能领域需要实现的目标和面临的挑战,即建立支持解释和理解的世界因果模型,以及将学习基于物理和心理直觉理论,使用组合性和学习来学习以适应新的任务和情况
Apr, 2016
通过对超过 100 个最近的实验研究进行超过 300 效应大小的元分析,本研究发现:平均而言,人工智能与人类的结合表现明显低于单独人类或人工智能的最佳表现;涉及决策的任务中存在性能损失,而涉及内容创作的任务中则有显著的性能提高;当人类的表现优于单独的人工智能时,结合表现会提高,但当人工智能的表现优于人类时,结合表现则会降低。这些发现突显了人工智能与人类协作效果的多样性,并为改进人工智能系统提供了有前途的方向。
May, 2024
每天我们越来越依赖于机器学习模型来自动化和支持高风险任务和决策。这篇论文提出了混合决策系统的分类法,提供了一个概念和技术框架,以理解当前计算机科学文献中的人机交互模型。
Feb, 2024