- 二分类中追溯风险
提出了一个学习理论框架,比较了分类有和没有算法追溯的风险,发现在许多情况下提供算法追溯反而有害,因为它会使用户产生更多的错误。此外,提供算法追溯有时会对系统整体造成伤害。因此,对当前的算法追溯概念需要重新思考。
- 制造业和供应链中值得信赖、负责任、合乎伦理的人工智能:综述和新兴研究问题
本文探讨了 AI 可靠、道德、和值得信任的运用,分析了机器学习周期中的每个部分可能带来的信任问题,并提出了一些研究问题以帮助引导未来研究,以确保制造业中的 AI 应用安全和负责任。
- 运动科学与医学中的大型语言模型:机遇、风险和考虑因素
本文探讨了使用大型语言模型在体育科学和医学领域中所面临的潜在机遇、风险和挑战,并就应用大型语言模型所存在的数据偏见、保密数据曝露、有害输出产生以及与人类喜好的协调等问题进行了讨论。
- 人工智能风险怀疑论:一项综合调查
本研究调查了与人工智能相关的潜在危险引起怀疑的问题,并将它与其他科学领域中出现的怀疑形式进行比较,通过针对其中蕴含的错误思考类型进行分类,旨在更好地理解我们现有的异议并寻找令人满意的解决方式。
- 负责任机器学习系统的 AI 治理简介
本文探讨了人工智能技术的风险,并介绍了一种名为 AI 治理的框架,以确保人工智能的负责任使用,从而避免和减轻包括监管、合规性、声誉、用户信任、财务和社会风险在内的风险。
- GRAIMATTER 绿皮书:来自可信研究环境(TREs)的训练机器学习(ML)模型的披露控制建议
GRAIMATTER 已开发了一套可用的建议,以防止从 TRE(Trusted Research Environments)中披露受过 AI 特定训练的模型时产生的额外风险,并识别出许多未来研究的领域来扩展和测试这些建议。
- 聚力,集风暴:人工智能百年研究(AI100)2021 年度研究小组报告
AI100 发布了第二份长期定期评估人工智能及其对社会影响的报告,其中指出 AI 已经从实验室走向现实生活。但应了解其潜在的负面影响及相关危险。
- 量化人工智能风险评估:机遇与挑战
介绍了通过执行全面的 AI 生命周期治理来降低人工智能风险的最佳方法,定量评估现有模型的风险可以类比于如何评估已经建造的房屋的能源效率或医生根据一系列测试评估整体患者健康状况,本文探讨了这一思路,并讨论了这种方法如何改善 AI 的监管。
- 解决问题,收获利益 ——AI 监管争议的系统回顾
本文系统综述了国际上共 73 篇针对人工智能 (AI) 监管的学术论文,重点关注社会风险、监管责任和可能的政策框架,包括基于风险和基于原则的方法。研究发现 AI 领域的复杂性,以及其尚未成熟和缺乏明确性。通过与欧洲 AI 监管建议的比较,本 - 公平风险度量
本研究提出了一个新的公平定义,通过对敏感特征感兴趣的亚组的期望损失进行衡量,从而实现了通用的敏感特征以及凸性目标的结果。该目标是基于条件风险最小化构建的,这与数学金融中风险度量的丰富文献相关。