基於人工智能的戰略決策調查、分類和未來方向
提出信任 AI 系统是一个元决策的过程,针对不透明的 AI “黑匣子” 提出了 TAI 的新的分类法,涵盖了解释性,权威性和基础三个关键领域,并建立了十个维度来度量信任。旨在通过这个分类法,从战略决策的角度探索不同的 TAI 方法。
Jun, 2023
利用创新的可信人工智能(TAI)框架,通过结合 AI 的三个关键组成部分:表示空间、损失函数和优化器,以及十二个 TAI 属性,来解决决策制定中信息可信性的难题。该框架被用于实验,在科技行业的战略性投资决策中,应用给定数据集训练出的最优预测模型。研究者还展望了 TAI 研究的未来方向。
Nov, 2023
人工智能在决策支持系统中的应用主要集中在技术进步方面,忽视了算法输出与人类期望的一致性。为了解决这个问题,可解释的人工智能提倡更加以人为中心的发展。为了更好地理解人与人工智能的交互,我们通过对 105 篇选定文章进行系统综述,提出了一种交互模式分类系统,以深入研究不同人机交互方式。通过对现有研究的分析发现,现有的交互方式主要是简单的合作模式,对于真正的交互功能的支持相对较少。我们的分类系统将有助于理解当前决策环境中人与人工智能的交互方式,并促进交互设计的有意选择。
Oct, 2023
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
本文旨在通过建立基于问责制的分类法,探讨由人工智能产生的可能导致人类社会范围内灭绝的风险类型,其中包括许多未被预见的风险,并提供技术和政策上的解决方案。
Jun, 2023
本文分析了人工智能治理的技术解决方案,提出了一个分类目录,分为四个领域:探索伦理困境、个体伦理决策框架、集体伦理决策框架和人工智能交互中的伦理问题,并讨论了面向成功将伦理人工智能系统整合到人类社会的未来研究方向。
Dec, 2018
本文提出基于 19 项可持续性标准和 67 个指标的 “可持续人工智能 (SCAIS)” 框架,为意识到 AI 系统的开发和应用提供了实用的标准和工具。
Jun, 2023
我们提出了一个综合的 AI 风险分类法,该分类法源自欧盟、美国和中国的八项政府政策以及全球 16 家公司的政策,并在生成式 AI 安全评估中迈出了重要的一步,为建立统一的语言奠定了基础。我们识别出 314 个独特的风险类别,并将其组织成了四层次的分类法。该分类法从最高层次包括系统与运营风险、内容安全风险、社会风险和法律与权利风险。通过提供这个统一的框架,我们旨在通过跨部门的信息共享和风险缓解的最佳实践推动 AI 安全。
Jun, 2024
该论文探讨了人工智能的发展带来的挑战,提出了在系统、架构和安全方面的研究方向,以解决 AI 技术存储和处理数据量的限制,并提高数据隐私保护,以便这一技术能够更好地改善人们的生活和社会。
Dec, 2017
研究了人工智能辅助下的人类决策制定,结合超过 100 篇论文总结了该领域的三个重要方面,即决策任务、AI 模型和 AI 辅助元素以及评估指标并提出了未来研究建议,强调建立共同框架以促进人工智能和人机交互社区协作,形成推广的科学知识。
Dec, 2021