- 模拟人工智能团队决策
研究表明,当涉及到风险元素和评估人类和 AI 代理能力的探索利用过程时,人工智能和人类在小组决策方面具有互补技能。本文面向一组带有缺陷的 AI 代理人,向人类团队提交一系列智力问题,以评估团队成员和可用 AI 代理人的相对专业知识,评估不同 - COMPAS 繁琐:RAI 数据集与算法公平基准之间的混乱关系
利用风险评估工具数据集(RAI),特别是 ProPublica 的 COMPAS 数据集来比较算法性能是常见的,然而我们发现这些数据集可能会存在大量的测量偏差和错误,而且算法公平性应用于 RAI 数据集在对现实世界结果提出要求时具有局限性。 - ML-Doctor: 机器学习模型推理攻击的全面风险评估
本文首次全面评估不同推断攻击对机器学习模型的威胁,研究了四种攻击(成员推断,模型反演,属性推断和模型窃取)的威胁模型分类,并通过实验评估了不同数据集和模型结构的表现和防御措施的有效性。
- AAAICOVID-19 虚假信息存在下风险感知健康决策研究:漂白剂或做什么?
本论文研究了如何通过对每个虚假信息故事的严重性评估和读者对此的感知来识别潜在的恶意虚假信息和检测促使虚假信息传播的信号,引入了一个新的基准数据集,并评估了几种传统和最先进的模型。
- 新冠病毒(COVID-19)病例实时预测和风险评估:数据驱动分析
本文旨在通过基于自回归综合移动平均模型和小波预测模型的混合方法,对加拿大、法国、印度、韩国和英国进行短期(10 天)预测,另外运用最优回归树算法对 50 个受疫情影响巨大的国家进行病死率风险评估,旨在有效分配医疗资源和提供政策决策的预警。
- 存在偏倚嘈杂标签时的公平性评估
本论文提出了一种风险评估模型的敏感性分析框架,用于评估不同群体的标签误差对模型的预测偏差性能的影响,在两个真实的刑事司法数据集上的实验结果表明,即使观察标签中存在小的偏差也可能会对基于噪音结果的分析的结论提出质疑。
- 面向残疾人的 AI 公平性:研究路线图
使用 AI 技术改善残障人士(PWD)的生活具有巨大潜力,但是如果没有考虑到公平性,这些技术可能会导致针对残障人士的不良影响。该研究通过风险评估和未来的研究路线图来探讨 AI 与残障人士之间的相互作用,以建立更公平、更包容性的算法。
- 研究人类与机器的互补性用于累犯预测
本研究通过对机器预测结果与多个 Turk 工人预测结果的比较,探讨了人机混合模型在预测再犯罪风险时的优劣势,旨在更好地利用人工智能和人工智能之间的互补优势,以更公平、准确地进行风险评估。
- IJCAI用于关键事件调查的多机器人导航、分析和决策支持的虚拟环境
通过使用 AI 技术进行风险评估和场景检查、更新风险评估、控制无人车辆收集图像和传感器数据、检查图像 / 视频以发现攻击迹象、身份识别异常行为并检索相关文件,减轻调查人员的认知负担。由于这类事件的罕见和高风险性质,真实的模拟可以支持基于 A - 基于 LSTM-MDL 模型的基于粒子的行人路径预测
提出了一种结合粒子滤波采样策略和 LSTM-MDL 模型的多模式路径预测方法,可用于安全应用中的风险评估,通过在多种现实场景中进行的实验表明最简单的方法表现最佳。
- 机器人如何评估风险?走向机器人学中公理风险理论
本文探讨了如何用合理的评估方法量化机器人的风险并提高其安全性,通过提出机器人应该满足的风险度量公理,讨论一些常见的评估方法的缺陷,并探讨了在顺序决策过程中需要考虑的附加属性,提供了可以在应用中使用的具体实例。
- KDD一种理解弗林特居民用水污染的数据科学方法
本文从 Flint 居民自愿水检测的数据中,针对居民特征预测铅污染水源的可能性,探讨与污染扩散相关的因素,并针对社区开发基于互联网和移动应用的风险评估工具。同时,对居民自愿参与水检测的自我选择原因进行考察。
- 更公平、更准确,但为谁而做?
该论文介绍了一种比较不同风险评估模型公平性的框架,特别关注与种族和性别的不平等问题,以预测再犯率和贷款为例进行实验。
- 以代理人为中心的风险评估:事故预测和危险区域定位
提出了一种基于软关注机制的循环神经网络模型,用于分析事故的发生概率和发生位置,实验证明该方法在两个数据集上均优于其他基准模型。
- MM增强无人机配送系统的控制物理网络安全的前景理论
利用运货无人机的实际环境中的网络困扰来构建一个零和游戏,通过引入概率和风险评估体系以及纳什均衡点来提高运货无人机的网络安全,从而避免可能由于网络攻击所造成的物资延迟。