- 利用公平速度递归改进神经网络的公平性
通过在训练阶段解决内在偏差,FairVIC 方法提高神经网络的公平性,不依赖于保护性特征进行预测,从而在不牺牲模型准确性的情况下显著提升公平度。
- X-VARS: 使用多模态大型语言模型在足球裁判中引入解释性
我们研究了大型语言模型在解释决策方面的能力,并以足球裁判作为测试领域。我们介绍了可解释的视频助理裁判系统(X-VARS),它是一个多模态的大型语言模型,旨在理解足球视频。我们验证了 X-VARS 在足球裁判领域的能力,并展示了它在解释复杂足 - 因果感知
通过正式化感知作为因果思维的一部分,并在决策过程中探讨了感知对公平性的影响,该研究旨在将感知作为一个有用的参数引入自动决策系统中。
- 排名中的评价项目对比解释
本文介绍了应用可解释人工智能和评估性对比解释方法以解决排名问题,并通过对公开数据进行的实验展示了其应用和特点。
- 通过解耦可反对数据生成组件实现程序公正性
揭示和处理常常被忽视的重要问题,即假装的程序不公平,我们提出了一个框架,通过利用参考点和相关的价值实现规则,将可否接受的数据生成组件与中立组件分离,以提高程序公平性。
- ChatGPT-HealthPrompt。利用 ChatGPT 在基于提示的医疗决策支持中发挥 XAI 的力量
该研究提出了一种创新的方法,在临床决策中应用大型语言模型(LLMs),重点关注 OpenAI 的 ChatGPT。我们的方法介绍了在数据稀缺情况下,采用上下文提示(策略性地设计了包括任务描述、特征描述和领域知识整合的提示)进行高质量二元分类 - 信用中的公平模型:交叉歧视与不公平加剧
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为 - 隐私、公平和预测性能动态的三重结
本文针对机器学习中的公平性、数据隐私等热点问题,并研究了在优化这三个方向时它们之间的相互影响,结论是通过权衡这三个方向的优化无法完全实现。
- 琳达,出了什么问题?联合谬误作为一个公平性问题
该研究论文重新审视了 Linda Problem 并将其制定为一个公平问题,旨在通过结构因果感知框架引入感知作为一个利益参数,以展示其在发展公平 ADM 系统中的潜在影响。
- WSDM通过阈值优化从多个子任务中做出可靠的决策:野外内容的审核
该研究利用机器学习模型进行社交媒体内容审核,提出了一种优化阈值的方法,以实现自动审核,这种方法在成本效率和内容审核方面表现更好。
- 以解释性设计为支持的解释分类
该论文使用 “Explainability-by-Design” 方法,并构建了一个包含 9 个维度的分类学来生成解释以遵循各种监管框架或组织层面的政策需求,从而帮助制定辅助性的自动合规策略,并提供一个机器可读的轻本体论,以便从一系列实例中 - 状态化的战略回归
对在线评估工具进行策略应对的研究表明,在考虑个体决策者和决策机构间多次周期策略互动的情况下,多轮互动使得决策机构更加有效地激励个体决策者朝期望的方向累积努力,并考虑延长时间框架和考虑决策累积的很多关键因素需要加以研究和解决。
- 算法追索综述:定义、公式、解决方案及展望
本文研究了机器学习中的算法回溯问题,在考虑了精度和鲁棒性之外,提出应当考虑公平、隐私、责任和可解释性等价值观,并对相关文献进行了全面审视,提出了一些解决方案。同时,作者还为该领域的研究方向提供了一些新的视角和方向,挑战了一些关于安全、隐私和 - 无模型调和模型
本文提出了一种简单易学的标注模型,以帮助解释者决定哪些信息有助于实现用户与代理之间的模型对接,从而将 “解释” 作为 “模型对接” 来完成。
- MM自动决策中人工解释的何为、何故、何如
介绍了解释在人工智能和机器学习决策系统中所扮演的角色,提供了解释的替代概念,并评估了现有解释方法和所需的特点。