使用基于仿真的推理技术检测和量化恶意活动
本文介绍了一种通过不同 iable surrogates 来规避计算时间瓶颈的方法,这种方法可以使现代行为模型在线使用而无需考虑其计算成本,并且在计算时间上可以实现与无法似然推断方法相当的建模能力,最后,我们展示了如何使 AI 助手在先前研究过的菜单搜索任务中计算模型的可行性。
Nov, 2022
本文提供了一种新的形式化方法和实证演示,来探讨强化学习(RL)推荐算法中的安全性问题,其中 RL 系统可能通过其推荐来操作用户的意见以增加其长期参与度。作者应用因果建模技术分析了文献中可扩展的 RL 推荐方法,发现这些方法允许进行用户操纵。作者还提供了一个模拟研究,演示 RL 算法如何利用其推荐来极化模拟用户的意见。本研究呼吁设计更安全的 RL 推荐器,并建议从最近文献中采用的方法进行根本性转变。
Sep, 2021
通过创建新的测试方法,我们评估了针对一组已知的 Benign & Malicious 文件执行敌对修改并评估性能变化的变化以及逃避技术,从而依靠实验证明了仅基于 ML 的系统可以比 AV 产品更有效地检测到试图通过修改来逃避的恶意软件,但在面临显着的新型攻击时可能反应较慢。
Jun, 2018
研究了推荐系统中存在的一种被称为 “对抗性注入攻击” 的问题,攻击者通过注入虚假的用户行为来实现其目的,设计了一种生成虚假用户的优化问题的精确解决方案,并探讨了攻击传递性及其限制,在真实数据集上进行了实验,为防御这种可能出现的攻击提供了有用的方法。
Aug, 2020
本研究针对基于深度学习的推荐系统进行了第一次系统性研究,提出了一个注入可控用户的数据污染攻击模型并发现此攻击在小、大规模数据集上都表现出色,同时提出多种优化方法用于解决此非凸整数编程问题。
Jan, 2021
本研究利用影响函数解决基于矩阵分解的推荐系统数据污染的问题,并通过优化问题构造一定数量的假用户,随后迫使推荐系统为普通用户推荐特定物品。该方法被证明是高效的,优于现有方法。
Feb, 2020
该研究系统地研究了针对基于图的推荐系统的攻击方法,将攻击行为转化为一个最优化问题,并提出可行的技术解决方案,针对广泛部署的基于图的推荐系统,攻击效果优于现有攻击方式,攻击效果显著。
Sep, 2018
该论文提出了一种应用程序,旨在检测和中和在线社交网络中的虚假实体,并着重保护公司免受潜在欺诈行为的影响。该应用程序以用户为中心的设计确保了对调查机构,尤其是刑事部门的可访问性,便于在复杂的社交媒体环境中进行导航和与现有调查程序的集成。
Nov, 2023