欧盟人工智能法案中通用人工智能不确定性估计的困境
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022
欧洲委员会提议的AI法案对高风险AI系统的风险管理和风险可接受性的方法进行了批判性评估,认为议会的最新草案在风险管理方面更具可行性,更好地平衡了比例原则和可信度。
Jul, 2023
欧盟人工智能法案草案及伴随的标准化努力对人工智能系统的符合评估存在问题,不考虑实际的功能可信度和责任归属,而可靠的功能可信度评估应该是符合评估的核心。
Oct, 2023
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
对于当前(和预期的)人工智能工具存在的一种新风险进行了研究。我们在进行未来行动的有效决策时需要进行不确定性推理,这对许多关键实际问题至关重要。面临这一挑战,对于辅助决策者的人工智能工具(如LLMs)的需求不断增长。然而,我们目前对于LLMs在此方面的能力尚不充分理解,且在基本计算爆炸和深层不确定性约束下,其性能无法保证。该报告阐述了RUU对人类和机器都具有挑战性的原因,并将这些困难与潜在的人工智能时间表和能力联系起来。我们揭示了这种潜在的误用风险如何与更广泛的基本结构风险相连接,从而产生非线性的危害。报告还提供了一个解决方案路线图,针对问题结构中的多个影响点进行了建议。这包括对所有相关方(潜在用户、开发人员和决策者)的建议,并融入了关于深度不确定性下的决策制定和复杂系统理论的见解。我们认为,该报告不仅提高了人们对当前一种新的人工智能风险的认识,并通过说明其相互关联性如何伪装其存在来增强其潜在影响的认识,从而起到了减轻和纠正的作用。
Jan, 2024
该文章提出了一种方法,通过利用产品质量模型来解释欧盟AI法案对高风险AI系统的要求。该方法将法案要求与相关的质量属性进行映射,并提出了一种合同为基础的方法来从利益相关者层面推导技术要求,以确保AI系统既符合确定的质量标准,也符合法案对高风险AI系统的监管要求。在一个汽车供应链示例中,展示了该方法的适用性,其中多个利益相关者相互作用以实现欧盟AI法案的合规性。
Mar, 2024
该研究解决了人工智能在关键场景下应用时的信任问题,尤其是AI系统预测的可靠性不明确。本文提出了一套评估AI预测不确定性的工具,强调了自我评估的影响,并提供了选择和设计适当方法的指导。研究表明,该方法在国家利益相关情境中显示出显著的实用性,有助于优化决策结果。
Aug, 2024
本研究探讨了人工智能中不确定性的本质,旨在解决小数据集或数据集变异带来的决策和预测挑战。通过整合已有理论与最新进展,本文提出了一种新的总不确定性定义,为不同领域中的人工智能提供了更清晰的理解和应用价值。
Aug, 2024
本研究针对欧盟人工智能法案下高风险AI系统需建立质量管理系统(QMS)的要求,填补了当前在工具开发方面的研究空白。提出了一套基于法律法规的QMS设计与架构,并实现了一个原型QMS,结合大语言模型(LLMs)以支持风险管理。该原型通过用户故事与技术评估进行验证,具有重要的应用潜力。
Aug, 2024