通过使用显式地建模不确定性来代表隐私问题,运用证据深度学习自适应分类,结合用户自身对隐私的理解和标签,本文提出了一种个人助手,其能够精确识别不确定的情况,并根据用户的需求提供个性化推荐,从而有助于用户更好地保护自己的隐私。
May, 2022
本文概述了隐私决策自动化所面临的主要挑战,并提供了一种分类方案,包括现有工作以及解决隐私决策自动化的倡议和提案。
May, 2023
该研究首次研究了隐私学习技术对基于深度学习模型的生成解释的影响,并在多个领域的各种图像和时间序列数据集上进行了详尽的实验分析,提出了在实际应用中该选择哪种技术的明确建议。
Nov, 2022
为了建立对 AI 的信任,实现透明化且易懂的 AI 系统成为了重要问题,本文提出了一种通过 AI Planning 实现初步解释的方法,并实现在新的 XAI-Plan 框架中。
Oct, 2018
解释性人工智能在隐私保护方面的攻击和对策进行了细致的调查和分析,发现了一些隐私泄漏的原因,并提出了未解决的问题和前景研究方向。
Mar, 2024
最近的实证研究调查了可解释人工智能对人工智能决策的影响,识别了挑战并提出未来的研究方向。
Dec, 2023
该研究提出了一种基于可视化隐私顾问的方法,在图像内容方面扩展用户的隐私设置,以减轻用户分享图片带来的隐私风险和隐私泄露的风险。通过将个人信息映射为图像属性,从图像直接预测个人信息,了解不同用户在隐私属性方面的偏好,并在此基础上提出模型以预测用户在隐私风险方面的表现,并在一定程度上优于用户自己的隐私风险认知。
Mar, 2017
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
本文系统审查了建议系统中的解释问题,探究了其目的、生成方式、呈现方式和评估方式,并提出了一个全面的分类法,其中包括解释目标、响应性、内容和呈现等方面,同时还识别了许多未解决的挑战。
Jun, 2020
通过收集健身数据集,进行相关的实证研究,并基于研究结果实现了建议系统,从而帮助用户更好地理解他们的隐私设置,从而更好地保护个人身份信息和表达个人伦理偏好,并实现了较高的准确性。
Apr, 2022