Oct, 2023

通过在 NeRF 中进行空间变形,保护隐私信息

TL;DR本研究通过一个创新的攻击方法,引入了一个保护用户隐私免受神经辐射场(NeRF)模型生成能力影响的方法。我们的方法通过对被观察视图进行几乎不可察觉的改动,从而扰乱了 NeRF 对 3D 场景的准确重构能力。我们使用一个双层优化算法,结合了基于投影梯度下降(PGD)的空间变形方法。在两个常见的 NeRF 基准数据集上广泛测试了我们的方法,这些数据集包含 29 个高质量图像的真实场景。实验结果明显表明,我们的隐私保护方法明显地影响了 NeRF 在这些基准数据集上的性能。此外,我们还展示了我们的方法的适应性和多功能性,适用于各种扰动强度和 NeRF 架构。本研究对于了解 NeRF 的漏洞并在开发强大的 3D 场景重构算法时考虑到潜在的隐私风险提供了有价值的见解。我们的研究对于探讨负责任人工智能和生成式机器学习,并旨在保护用户隐私和尊重数字时代的创造性所有权具有重要意义。