对人类弱点算法利用的反对
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和公平性方面的假设。
Oct, 2020
本篇论文讨论了推荐系统中的道德和社会问题,特别是 malicious user bias 所致的偏见和攻击对推荐模型的影响,强调了设计公平和稳定的推荐系统的重要性,尤其针对深度学习协同过滤推荐系统的脆弱性。
Sep, 2022
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须做到数据和开发者审查的透明化,在此基础上不断进行公平审计。
Jan, 2019
研究了软件项目中不同因素对于识别漏洞的准确性的影响,通过挖掘软件库中的漏洞并使用机器学习技术进行自动检测。通过实验发现,将基于词袋模型的签名与随机森林模型相结合,在 17 个真实世界项目中能提高 4% 的检测准确率,并观察到在跨域中转移漏洞签名的局限性。
Jun, 2024
近期发现的难以察觉的对抗性攻击可能对现有深度学习网络防御系统构成挑战,可能影响未来的网络攻击防御。本文重点研究了此领域,探讨了人工智能系统漏洞的后果,包括其可能出现的原因、随机化和对抗性示例之间的差异以及潜在的伦理问题。此外,在测试阶段适当地训练人工智能系统并使其为广泛使用做好准备也十分重要。
Aug, 2023
该研究讨论了机器学习算法的威胁模型,提出了三个解决方案:验证和准入控制、可靠的攻击记录机制和安全与隐私的形式化框架,通过这些方案来设计出较好的机器学习系统。
Nov, 2018
本文提出了一种新的机器学习算法设计框架,通过此框架可以简化机器学习算法不良行为的规定和规范,并使用该框架创建了一些新的机器学习算法来防止标准机器学习算法展现性别歧视和有害行为。该框架可以确保机器学习算法的安全和负责任应用。
Aug, 2017
该研究探讨了算法工具在儿童虐待热线筛选决策方面的应用,结果显示人类对机器的建议进行了更改,缺乏自主权的全自动化决策管道存在风险。
Feb, 2020