个性化社交推荐 - 更准确还是更私密?
提出了一种算法来实现个性化推荐,既确保了精确度,也能维护隐私;以广告为应用示例进行离线实验,量化了隐私保护算法对用户体验、广告主价值和平台收益等关键指标的影响。
Aug, 2023
我们提出了一种新的联邦学习方法,以保护敏感数据领域(如医学或银行业)中的用户隐私,同时用于推荐系统,不提取原始数据、用户统计数据或个人偏好信息,通过构建一组原型,推断全局行为模式,提供差分隐私保证,并实现局部模型的本地适应,取得了远优于传统中心计算模型、准确度高且具备可证明隐私保障的推荐效果。
Mar, 2020
本文研究了在本地差分隐私条件下从用户隐私数据中学习项目簇的问题,并且开发了一些方法来限制互信息,其结果表明采取不同的算法和方法可以实现不同零星用户样本复杂度,同时研究的技术具有更广泛的适用性。
Jul, 2012
我们提出了一个实用的联邦推荐系统,用于隐式数据下的用户级本地差分隐私,包括代理网络来减少用户跟踪表面。我们在 Movielens 数据集上进行实证研究,并在保护用户隐私的同时,实现了高命中率。
May, 2021
通过一个数学模型研究了基于流行度和社交关系的推荐系统。结果表明,在一些普遍的条件下,市场总会收敛到一个稳定状态。通过实验进一步证明,实际社交网络中的社交图表现出一定的防止市场失真的作用,即使存在高度具有影响力的用户。
Jul, 2016
本文提出了一种新颖的差分隐私序列推荐框架 (DIPSGNN),通过噪声图神经网络方法实现差分隐私保护,解决了现有差分隐私推荐系统在顺序推荐中的局限性,能够保护依赖性互动并同时捕捉用户偏好,在隐私和准确性之间取得更好的平衡。
Sep, 2023
通过使用显式地建模不确定性来代表隐私问题,运用证据深度学习自适应分类,结合用户自身对隐私的理解和标签,本文提出了一种个人助手,其能够精确识别不确定的情况,并根据用户的需求提供个性化推荐,从而有助于用户更好地保护自己的隐私。
May, 2022
本研究旨在探讨如何有效地利用社交信息来改进推荐,提出了一种将社交曝光融入协同过滤的新颖方法,通过社交规范化和社交激励两种不同的方式构建社交曝光,实验证明此方法优于当前的最新方法,并进行了两种方法的可靠性和可扩展性比较。
Nov, 2017
本文提出了一种高效的分散式(点对点)和异步算法来解决个性化模型的学习,同时满足强隐私要求,并证明了它的收敛速率。我们展示了如何使算法往常差异保持私密以保护个人数据集的信息披露,并正式分析了效用和隐私之间的权衡。实验结果表明,在非私密约束下,我们的方法大大优于以前的工作,在隐私约束下,我们可以显著改进在独立学习中得到的模型。
May, 2017