本文提出了一种基于 GraphRfi 的 GCN 用户表示学习框架,以实现强健的建议和舞弊者检测,此框架在强健的评级预测和舞弊者检测这两个任务中表现更为优越,并且证实其比现有的推荐系统更具鲁棒性。
May, 2020
该研究系统地研究了针对基于图的推荐系统的攻击方法,将攻击行为转化为一个最优化问题,并提出可行的技术解决方案,针对广泛部署的基于图的推荐系统,攻击效果优于现有攻击方式,攻击效果显著。
Sep, 2018
该研究探讨了在联邦推荐系统中执行促销攻击的策略,引入了一种无需额外信息的新型假用户基础的中毒攻击,称为 PoisonFRS,该攻击能有效地促进攻击者选择的目标物品并且在潜在空间中无法区分真实用户和虚假用户的模型更新。
Feb, 2024
通过引入产品的文本评论以提高生成质量,我们提出了一种名为 R-Trojan 的新型攻击框架,将攻击目标表述为优化问题,并采用定制的基于转换器的生成对抗网络 (GAN) 进行求解,从而产生高质量的攻击性用户配置文件。在黑盒设置下对各个受害者推荐系统进行的广泛实验证明了 R-Trojan 在多个受害者推荐系统上明显优于现有最先进的攻击方法,并展示了其良好的不可察觉性。
本篇论文讨论了推荐系统中的道德和社会问题,特别是 malicious user bias 所致的偏见和攻击对推荐模型的影响,强调了设计公平和稳定的推荐系统的重要性,尤其针对深度学习协同过滤推荐系统的脆弱性。
Sep, 2022
研究了推荐系统中存在的一种被称为 “对抗性注入攻击” 的问题,攻击者通过注入虚假的用户行为来实现其目的,设计了一种生成虚假用户的优化问题的精确解决方案,并探讨了攻击传递性及其限制,在真实数据集上进行了实验,为防御这种可能出现的攻击提供了有用的方法。
Aug, 2020
我们提出了第一个通用黑盒对抗攻击框架,称为 GAFSI,用于针对基于不同图结构的检测器,通过模拟社交互动行为来欺骗检测器,实验证明了 GAFSI 的有效性。
Apr, 2024
在这篇论文中,我们提出了一种通用方法 Real-time Vicinal Defense(RVD),通过利用邻近的训练数据来对模型进行微调,从而在为每个用户做推荐之前确保特定样本的鲁棒性,在实时中具有防御强度,在不改变模型结构和训练过程的情况下更加实用,并且通过与其他策略的结合可以进一步增强防御效果。
Sep, 2023
本文介绍了一个对话推荐系统(CRSs)的鲁棒性评估方案,其中自动生成敌对样本以评估系统在不同输入数据面前的鲁棒性。通过执行这些敌对样本,我们可以比较不同 CRSs 满足用户偏好的能力,并表明测试的三个 CRSs 都不够稳健和可靠。
Mar, 2023
本研究针对基于深度学习的推荐系统进行了第一次系统性研究,提出了一个注入可控用户的数据污染攻击模型并发现此攻击在小、大规模数据集上都表现出色,同时提出多种优化方法用于解决此非凸整数编程问题。
Jan, 2021