基于决策的不确定性感知人工智能设计方法
本文阐述了实现基于不确定性意识的人工智能和机器学习系统在决策支持中的必要性及其面临的挑战,并介绍了当前令人看好的研究方向。通过理论模拟,展示了两种新兴的不确定性意识机器学习和人工智能技术的集成对路径规划操作的价值。
Sep, 2018
本文介绍了一种补充的透明度形式——估计和传达模型预测的不确定性,探讨了如何使用不确定性来缓解模型的不公平性、增强决策制定,并在现有机器学习管道中集成不确定性所需的信息。
Nov, 2020
提出了一个概念框架来描述和管理人工智能-大数据环境中价值的多样性和不确定性,并基于抽象和高度可伸缩的定义来设计框架,以支持商业智能评估人工智能-大数据项目的影响。
Oct, 2021
研究了人工智能辅助下的人类决策制定,结合超过100篇论文总结了该领域的三个重要方面,即决策任务、AI模型和AI辅助元素以及评估指标并提出了未来研究建议,强调建立共同框架以促进人工智能和人机交互社区协作,形成推广的科学知识。
Dec, 2021
我们在开发生成人类可理解的简洁自我能力评估框架方面取得了进展,并引入了概率元推理的若干方面,以处理不确定性下的算法规划和决策,以得到一组新的可推广的自信因素,以支持各种问题的能力评估。
Mar, 2022
对于当前(和预期的)人工智能工具存在的一种新风险进行了研究。我们在进行未来行动的有效决策时需要进行不确定性推理,这对许多关键实际问题至关重要。面临这一挑战,对于辅助决策者的人工智能工具(如LLMs)的需求不断增长。然而,我们目前对于LLMs在此方面的能力尚不充分理解,且在基本计算爆炸和深层不确定性约束下,其性能无法保证。该报告阐述了RUU对人类和机器都具有挑战性的原因,并将这些困难与潜在的人工智能时间表和能力联系起来。我们揭示了这种潜在的误用风险如何与更广泛的基本结构风险相连接,从而产生非线性的危害。报告还提供了一个解决方案路线图,针对问题结构中的多个影响点进行了建议。这包括对所有相关方(潜在用户、开发人员和决策者)的建议,并融入了关于深度不确定性下的决策制定和复杂系统理论的见解。我们认为,该报告不仅提高了人们对当前一种新的人工智能风险的认识,并通过说明其相互关联性如何伪装其存在来增强其潜在影响的认识,从而起到了减轻和纠正的作用。
Jan, 2024
机器学习模型中的不确定性是一个关键特征,尤其在神经网络中更为重要,因其倾向于过于自信。本研究提出了一个通用的不确定性框架,将不确定性估计定位为可解释的人工智能技术,并引入分类与拒绝机制以减少错误分类,同时应用于教育数据挖掘中的神经网络案例研究,提高模型在操作研究中决策任务中的可信度与行动性。
Mar, 2024
本研究探讨了人工智能中不确定性的本质,旨在解决小数据集或数据集变异带来的决策和预测挑战。通过整合已有理论与最新进展,本文提出了一种新的总不确定性定义,为不同领域中的人工智能提供了更清晰的理解和应用价值。
Aug, 2024
本研究解决了欧盟人工智能法案中通用人工智能的不确定性估计问题,指出其在技术标准和合规解决方案中的重要性。文章提出不确定性估计作为确保模型法律合规和质量控制的有效措施,并强调尽管其提升了计算复杂性,但在满足透明度、准确性和可信度方面具有潜在的积极影响。
Aug, 2024