Jul, 2024

不信任机器人:在野外的人-模型对话中发现个人信息披露

TL;DR通过对真实用户与商业GPT模型的互动中产生的个人披露进行广泛细致的分析,研究人员以质量化和量化分析为基础,建立了任务和敏感话题的分类系统,并发现个人可识别信息(PII)在意料之外的上下文中出现,如翻译或代码编辑中(分别为48%和16%),而仅仅依靠PII的检测是不足以捕捉到人机交互中常见的敏感话题,如详细的性偏好或特定药物使用习惯。因此研究人员呼吁设计适当的推动机制来帮助用户监管他们的互动,以充分认识到这些高披露率的重要性。