行为认证系统的隐私保护机器学习
本研究使用行为生物识别,包括触摸动态和手机移动,创建和评估了用户身份验证方案。使用两个公开数据集,采用 7 种机器学习算法进行评估,准确率高达 86%。
May, 2022
该论文提出了一种基于任务行为生物特征认证的方法,利用个体的运动轨迹作为唯一签名,在虚拟现实环境中实现无缝的持续认证。通过使用深度学习方法进行行为生物特征认证,准确率较高,但在使用任务开始时的较小片段时性能较低。因此,现有技术设计的系统在等待未来运动轨迹片段可用时是易受攻击的。为了解决这个问题,该研究首次使用基于 Transformer 的预测方法,预测未来用户行为并用于用户认证。根据用户当前的任务环境下的轨迹,我们的方法可以预测用户未来的运动轨迹,因为用户不太可能在任务期间大幅改变其行为。我们使用 Miller 等人公开的 41 个被试的投掷球数据集来展示使用预测数据进行用户认证的改进效果。与不进行预测相比,我们的方法平均将认证等错误率(EER)降低了 23.85%,最大降低 36.14%。
Jan, 2024
基于唇部生物特征身份验证(LBBA)是一种基于通过相机传感器捕获的视频数据中人的唇部运动的身份验证方法。该方法利用唇部运动的物理和行为特征,不需要额外的传感设备,仅需一个 RGB 相机。本论文提出了一种将行为特征与发音内容相关联的一次性方法,通过自定义 GRID 数据集获取所需的三元组,并基于 3D 卷积和递归神经网络层训练匹配网络。测试结果表明,基于开放性协议的 LBBA 在定制的 GRID 数据集上的误识别率为 3.2%,漏识率为 3.8%。还对结果进行了进一步分析,量化了行为特征和物理特征对 LBBA 的影响和区分能力。
Aug, 2023
本文研究了机器学习模型的隐私风险和成员推理攻击,提出了一种基于预测熵修改的推理攻击和一个新的隐私风险得分指标,同时对已有的防御机制进行了基准攻击,实验结果表明个体样本的隐私风险得分分布差异很大,同时确定源风险的主要因素与模型敏感性、综合误差和特征嵌入有关系。
Mar, 2020
通过将累积前景理论(CPT)与隐私保护的差分隐私相结合,设计了一种算法,使用增加噪音的高斯过程机制保证了算法所学习到的价值函数的隐私性,并在实验中证明了有隐私保护的强化学习代理能够在与人类用户相同的环境中以隐私保护的方式学习和与用户保持行为一致。
Mar, 2022
使用安全多方计算方法构建隐私保护的神经架构搜索框架,其中使用重新设计的 ReLU 和 Max-pooling 保混乱电路以及对秘密共享的 Softmax 函数的新替代方法,分析和实验表明其在安全性,效率和准确性方面具有优越性。
Apr, 2022
这项工作主要关注机器学习模型的训练阶段,在这个阶段对用户数据的隐私保护至关重要。我们提供了坚实的理论背景,以便更容易理解当前方法及其局限性。此外,我们对最新的模型训练框架进行了详细比较,提供了在标准基准上独特属性和性能的全面对比。我们重现了一些论文的结果,并考察现有作品对开放科学的支持程度,认为我们的工作就提高了关于隐私保护机器学习在理论进展和实际应用之间差距的意识,特别是在开放源代码可用性、可重复性和可用性方面。
Mar, 2024
通过鲁棒表示学习作为编码数据的方式,我们提出了一种旨在优化隐私效用平衡的方法,利用自动编码器进行多目标训练,然后将编码部分的潜在特征和学习特征连接起来作为我们的数据的编码形式,以安全地发送给第三方进行深度训练和超参数调优,从而在维护数据隐私的同时提高性能。
Sep, 2023
该研究探讨了在保持隐私的同时使用机器学习进行个人任务的挑战,使用预训练模型的上下文学习功能成为可能的替代方案,此方法与基于联邦学习的框架具有相似的性能表现。
May, 2022