本研究论文旨在借助复杂系统、网络科学和人工智能的交叉领域构建社交人工智能的基础,并探讨了社交人工智能领域中的主要问题、可能出现的技术和科学挑战,以及未来的研究方向。
Jun, 2023
通过提出受到二元过程理论(DPT)启发的基于注意力机制的认知架构,结合快速启发式(类似人类)反应和机器智能的优化规划能力,我们展示了如何通过评估其在多个不同属性上的表现,动态决定二者的参与度以优化任务目标,并在动态环境中的轨迹规划中验证了该框架有效地管理复杂任务并优化多个任务目标。
Apr, 2024
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
每天我们越来越依赖于机器学习模型来自动化和支持高风险任务和决策。这篇论文提出了混合决策系统的分类法,提供了一个概念和技术框架,以理解当前计算机科学文献中的人机交互模型。
Feb, 2024
讨论了设计人类感知人工智能系统面临的挑战,包括建模人类的心理状态、识别其愿望和意图、提供主动支持、展示可解释性行为、并引发信任等,并强调这种系统引出的伦理困境和推广真正跨学科合作的必要性。
Oct, 2019
本文通过采用人工智能和多智能体系统等技术构建了一个仿真模型,旨在增进对人们在危险环境中遇到困境时的反应和应对方法的理解,以提供更高效和有效的疏散策略,从而改善危险区域内个人的安全和福祉。
该论文探讨了人工智能的发展带来的挑战,提出了在系统、架构和安全方面的研究方向,以解决 AI 技术存储和处理数据量的限制,并提高数据隐私保护,以便这一技术能够更好地改善人们的生活和社会。
Dec, 2017
本篇论文呼吁在设计支持人机互动的多领域工作流时采用全面的视角,包括互动范式、界面和系统等支持机制。
Jan, 2023
这篇论文系统地介绍了人工智能与人类协作时可能出现的观察、解释和行动上的冲突,包括其潜在风险、测量方法、影响因素,并强调了这是一个正在崛起的风险领域,需要与传统的故障和失效分析区分开来。
May, 2023
用三个责任 AI 支柱(可解释性、公平性和鲁棒性)在多智能体学习中探索可解释性,展示人们如何更好地理解和塑造多智能体学习的新技术。
Nov, 2023