机器学习犯罪观念的批评回应 (arXiv:1611.04135 补充)
本文研究了超过 150 篇文章,探讨了机器学习和深度学习算法在犯罪预测方面的应用,分析了犯罪预测所需的数据集和机器学习和深度学习的主要方法,并提出了可用于提高预测准确性的因素和未来研究方向,为犯罪预测领域的研究人员提供有价值的参考。
Mar, 2023
机器学习在信任与安全问题中的应用存在研究和实践之间的脱节,以误信息检测为案例研究,我们系统化了 270 篇领域内有广泛引用的文献,并对其中的数据和代码可用性、设计失误、可重现性和普适性进行了检查。我们发现文献中存在显著的不足之处,对所声称的性能和实用性提出了质疑。检测任务往往与在线服务面临的挑战有实质性区别。数据集和模型评估往往不代表现实世界环境,评估通常也与模型训练不独立。数据和代码的可用性较差,模型在领域外的数据上泛化效果不佳。基于这些结果,我们提出了评估解决信任与安全问题的机器学习应用的建议,希望未来的研究能避免我们所识别的问题。
Aug, 2023
本研究回顾并总结了机器学习在法证图像分析中的高风险性质,概述了高风险人工智能系统的强制要求,并讨论了这些要求在两个法证应用(车牌识别和深度伪造检测)中的实际应用。目的是提高人们对即将发布的法律要求的认识,并指出未来研究的方向。
Mar, 2022
对高风险事件预测的计算方法应用于社会科学的基本问题进行了探讨,提出了一种新的范式以强调和促进计算方法与传统社会科学方法的结合。
Nov, 2023
人工智能的生成性进展使真实和机器生成的内容之间的界限变得模糊,尤其在社交媒体上使用 AI 生成的图片来伪造个人资料。我们进行了首次大规模调查,研究发现 Twitter 上的 AI 生成头像占总头像数量的 0.052%。我们对这些账户及其推文内容进行了全面分析,并揭示了协同不真实行为的模式。研究结果还揭示了垃圾邮件和政治放大战略等多种动机。这一研究结果再次证实了需要制定有效的检测和缓解策略来应对未来生成性人工智能可能带来的负面影响。
Apr, 2024
本文对当前合成图像生成和处理技术的发展进行了探讨,并提出了一个基于 DeepFakes,Face2Face,FaceSwap 和 NeuralTextures 的面部操作检测基准,包括超过 180 万个操纵图像的数据库,并通过数据驱动型假冒检测器的详尽分析证明了使用额外领域特定知识的方法能够显著提高假冒检测的准确性。
Jan, 2019
应用研究论文探讨了人工智能加剧或减轻种族系统性不公对社会的影响。研究从识别、分析和辩论系统性问题的各个主题入手,调查了算法自动化处理种族敏感环境中的人类决策的优缺点。通过分析历史系统化模式、隐性偏见、现有算法风险和法律后果,指出基于自然语言处理的人工智能(如风险评估工具)存在种族不平等问题。论文得出结论:需要更多诉讼政策来规范和限制政府机构和企业如何利用算法,隐私和安全风险,审计要求,以避免过去的不公正结局和做法。
Jan, 2022
研究机器学习系统如何应对对抗性操纵时,探讨了计算机犯罪、版权和侵权法与扰动、污染、模型盗窃和模型反演攻击的接口,呼吁机器学习研究人员投资于透明的攻击和防御基准、考虑监管意识下的机器学习系统架构,并在公民自由的背景下更多思考对抗性机器学习问题。
Oct, 2018
通过整合人工智能和机器学习技术,本研究旨在利用现有闭路电视网络对人群管理、犯罪预防和工作场所监控进行综合性处理,开发和实施能够实时分析视频信息的先进算法,实现人群动态识别和评估、潜在犯罪活动的早期发现以及工作环境的持续监控,借助于人工智能和机器学习技术,优化监控能力,提高公共安全措施和组织生产力的水平。这一倡议强调了智能视频分析在现有基础设施上的变革性影响,减少了系统全面改造的需要,显著提升了安全和运营效率。
Nov, 2023
针对风险评估的核心伦理辩论不仅仅是偏差或准确性的问题,而是目的的问题。机器学习不应用于预测,而是用于发现进入因果模型的协变量,以了解犯罪的社会,结构和心理驱动因素。我们提出了一种机器学习和因果推断的替代应用,从预测风险分数转向风险缓解。
Dec, 2017