- ICML主动公平性审计
研究 ML 模型的审计算法,通过提出确定性算法和实用的随机化算法来评估 ML 模型的人口统计平等,以帮助监管机构应对机器学习的监管挑战,并为 AI 治理奠定更坚实的理论基础。
- 纳米战争可能引发流行病并未能促进合作
本文通过简化的博弈理论思想实验研究了基于纳米技术的定向自主武器对于人类未来意味着什么,发现这种武器介入纳米战争并不能促进合作,反而增加了疫情爆发的次数,因此我们迫切需要对纳米技术和自主武器进行国际规范。
- MM正则化分类感知量化
本文提出了一种正则化分类感知量化的算法,该算法通过在重构误差上进行正则化 0-1 损失,用于二元分类任务,性能比文献中的基准量化方案更优,并能在未见数据上快速处理。
- AAAI规管人工智能:全球解决方案建议
为了最大化人工智能技术的好处并最小化其风险,我们需要一个国际的人工智能治理框架,包括一个新的人工智能监管机构来制定规范统一的 AI 技术标准并协调世界各地的政策制定。
- AI 安全监管市场
提出全球性监管市场的新模型,以实现人工智能安全并应对商业无人机中人工智能模型面临的对抗攻击风险。
- ICML面向谁的可解释性?一种基于角色的模型,用于分析可解释的机器学习系统
通过建立代理角色模型,为解决机器学习系统可解释性问题提供一种新思路,并探讨代理角色对可解释性定义和机器学习目标的影响,为解释性研究、系统开发和监管机构的审计提供了一些启示。
- 通过热图调节改善物体计数
本研究提出了一个名为 heatmap regulation(HR)的实用策略,通过生成简单的点注释来规范深度卷积神经网络的最终卷积层的激活图,成功地抑制了计数任务中由单纯的单目回归模型引起的误检和漏检等问题,并且在不同计数数据集上均得到了优 - AI 在法律下的问责:解释的作用
本研究回顾了当前法律下需要解释的情况,列出了必须考虑的技术方面,以期望提供类似于人类所需的解释的人工智能系统的研究。
- Society-in-the-Loop:算法社会契约的编程
本研究提出了一个对人工智能和算法系统进行监管的概念性框架,其中结合人机交互学习与各利益相关者的价值观协商及监控来保证算法社会契约的编程、调试、运行和维护。
- 自动驾驶汽车的社会困境
自动驾驶车辆在道路上要做出道德决策是个难题,虽然参与研究的用户表示支持牺牲乘客保护其他人的车辆,但他们在自己乘坐时更倾向于保护自己。因此,规定强制使用利他主义算法的车辆可能会推迟更安全技术的推广从而增加事故发生率。
- DebtRank-transparency: 金融网络系统性风险的控制
通过提高透明度,建立一个简单的激励机制,可以以自组织的临界方式实现系统内风险的均衡分布,减少系统性风险和级联失败,这是一种有效且不降低金融网络效率的监管机制。
- 通过信号检测进行调整和调节意味着内部模型
在适当的技术假设下,本文提出定理:如果系统 S 适应于外部信号 U 的一类,即针对集合 U 中干扰或跟踪信号的调节,则 S 必须必然包含一个能够生成 U 中所有信号的子系统。该结果不假设调节具有健壮性,也没有先前要求将系统分隔为独立的控制器