第二决策者的警报:人工智能冲突简介
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同行动的风险并通过达成共识来最大化整体回报,并提出了人工智能 - 人类团队决策的模型。研究验证了在不确定情况下的人工智能团队和人类行为预测中的前景理论、影响动态和贝叶斯学习的社会认知构建的价值。
Jan, 2022
通过研究发现,目前 Human-AI collaboration 在决策方面已经有了一定的进展,但还存在一些问题需要解决,如性能和公平性不足,学习模型的部署需要考虑实际环境等方面,需要更多的研究进行完善。
Jun, 2022
每天我们越来越依赖于机器学习模型来自动化和支持高风险任务和决策。这篇论文提出了混合决策系统的分类法,提供了一个概念和技术框架,以理解当前计算机科学文献中的人机交互模型。
Feb, 2024
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
研究了对话决策问题的一个类别,其中 AI 助手与一个或多个人通过自然语言协作,帮助他们做出复杂的决策。为不同的任务建立了对话环境,并使用这些环境收集了人与人的对话作为基线,同时提出了模型在决策导向的对话中面临着一些挑战,并释放了环境作为未来建模工作的测试基地。
May, 2023
研究人工智能在人类协作中的表现和对人类信任、接受建议以及协作结果的影响,揭示了披露人工智能表达的信心水平和性能反馈有助于更好地识别信心不一致,但参与者往往会因此减少信任,拒绝人工智能建议,导致协作任务表现更差,这为提高人工智能与人类的协作提供了有价值的见解。
Feb, 2024
研究人工智能在人类与机器共同决策中的影响,探究其在小组决策中的表现,并采用投票方式进行讨论,发现虽然 AI 的发言具有价值,但它在小组中的作用较为次要,并且关于 “平等的 AI” 的看法存在分歧,为人工智能与人类关系的未来提供启示。
Feb, 2023
人工智能在网络安全领域的潜力以及人工智能与人类合作的风险因素、伦理和法律问题等方面进行了深入探讨,强调了将人类专家的专业知识与人工智能的计算能力相结合以改善网络防御的重要性。
Sep, 2023
讨论了设计人类感知人工智能系统面临的挑战,包括建模人类的心理状态、识别其愿望和意图、提供主动支持、展示可解释性行为、并引发信任等,并强调这种系统引出的伦理困境和推广真正跨学科合作的必要性。
Oct, 2019