推荐系统的顺序性破坏了评估过程
本研究探讨了模型提取是否可以用于 “窃取” 顺序推荐系统的权重以及针对此类攻击对受害者可能带来的潜在威胁。我们认为,由于用于训练它们的特定自回归模型,顺序推荐系统容易受到攻击。我们在无数据访问情况下,通过有限预算模拟数据生成和知识蒸馏提出了一种基于 API 的模型提取方法,以研究最先进的顺序推荐模型在此类攻击下的脆弱性。通过两阶段攻击,即模型提取和下游攻击,我们发现黑盒顺序推荐模型易受白盒顺序推荐器生成的对抗样本干扰并受到污染。
Sep, 2021
本文提出了 Cascade-guided Adversarial training,一种针对顺序推荐模型的新对抗性训练过程,以解决顺序推荐模型的健壮性和过度依赖时间信息的问题。实验结果表明,我们的训练方法在模型排名准确性和模型健壮性方面都优于标准模型训练和通用对抗性训练。
Apr, 2023
该研究提出了一种基于生成序列概念、以期望总效用为目标函数的组合推荐模型,包含基于搜索和增强学习的序列生成策略,以及全面考虑用户、商品信息和商品间关联的评估模型,离线实验表现出优越性能。
Feb, 2019
通过实证研究,本文探讨了删除时间序列内不同位置的物品对顺序推荐系统(SRSs)模型的影响,结果表明在序列末尾删除物品显著影响性能,指标 NDCG 下降 60%,而在序列的起始或中间删除物品则没有显著影响,这些结果强调了在训练数据中考虑扰动物品的位置对于设计更稳健的 SRSs 的重要性。
Jul, 2023
本篇论文讨论了推荐系统中的道德和社会问题,特别是 malicious user bias 所致的偏见和攻击对推荐模型的影响,强调了设计公平和稳定的推荐系统的重要性,尤其针对深度学习协同过滤推荐系统的脆弱性。
Sep, 2022
本文介绍了一个对话推荐系统(CRSs)的鲁棒性评估方案,其中自动生成敌对样本以评估系统在不同输入数据面前的鲁棒性。通过执行这些敌对样本,我们可以比较不同 CRSs 满足用户偏好的能力,并表明测试的三个 CRSs 都不够稳健和可靠。
Mar, 2023
本文针对序列推荐系统中的对抗攻击,提出了基于替换的对抗攻击算法和一种称为 Dirichlet 邻域采样的有效防御方法。均在各类模型架构与数据集上获得了较好的效果。
Jul, 2022
提出了一个新的评估协议来解决 “多余噪声” 对顺序推荐系统的影响,并引入了一种新型的关联感知损失函数来训练该系统,使其更具有鲁棒性,该模型在传统评估协议中 NDCG@10 有 0.88% 的提高,在新评估协议中有 1.63% 的 NDCG@10 和 1.5%的 HR 提高。
May, 2023
通过对 MovieLens 数据集的细致分析,揭示了使用该数据集评估推荐算法可能存在的潜在影响,包括用户交互的不同阶段的差异、推荐算法对用户交互的影响、用户交互顺序变化对算法的挑战以及与实际推荐场景存在的差异等。
Jul, 2023