Aug, 2024

隐私透镜:评估语言模型的隐私规范意识

TL;DR本研究解决了量化语言模型(LM)在交互过程中遵循隐私规范的能力的难题。提出的PrivacyLens框架能够有效地扩展隐私敏感种子,并实现多层次的隐私泄漏评估,揭示了LM在执行用户指令时隐私泄漏的实际情况。研究发现,先进的语言模型在25.68%到38.69%的情况下泄漏敏感信息,尽管经过隐私增强的指令提示。