- 对 AI 公平相关决策进行人类沟通分析和组织:公共部门的应用案例
AI 算法在公共部门中的使用,例如分配社会福利或预测欺诈行为,往往涉及到多个公共和私人利益相关者。研究人员通过对公共部门算法系统工作人员的访谈,调查了与 AI 公平相关决策相关的沟通过程,并通过定性编码分析识别了潜藏在公平相关的人工决策中的 - 从声音到可信度:利用大型语言模型(LLM)对政策利益相关者访谈进行文本分析
该研究通过将人类专业知识与大型语言模型(如 GPT-4)相结合,探索了人与计算机相互配合进行教育政策研究中的文本分析。结果显示,GPT-4 在特定主题上与人类编码的统一性达到 77.89%,在更广泛的主题上达到 96.02%,超过传统自然语 - AI 设计中的参与式转向:理论基础与实践现状
通过综合技术设计、政治理论和社会科学的文献,以及对 12 位人工智能研究员和从业者的半结构化访谈,本文试图通过将现有理论文献与经验调查和批判相结合,为感兴趣采取参与式方法的人工智能设计和开发的研究人员和从业者提供一个概念框架,以评估参与式人 - 恩惠智能:通过人工智能系统对益处、援助和相关道德失误进行能力建模
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道 - 反馈日志:记录并融入利益相关者的反馈到机器学习流程
我们提出了 FeedbackLogs,这是现有机器学习(ML)流程文档的附加部分,用于跟踪多个利益相关者的输入。每个记录都包括有关反馈收集过程、反馈本身以及如何使用反馈来更新 ML 流程的重要细节。我们在本文中引入并规范了收集 Feedba - LLMs 时代的人类中心研究路线:人工智能透明度
在大型语言模型与透明度的讨论中,我们必须考虑不同利益相关者在不同情境下的需求,并构建在人们处理、交互和使用信息方面所了解的经验基础上的透明度方法,这是一篇关于应对 LLM 这个新时代带来的人工智能透明度挑战的文章.
- 文本分析在公共服务共创中的应用:文献综述和研究框架
研究了文本分析技术在公共服务协同创造中的应用,发现其应用仍处于早期阶段且范围有限,提出了一个支持公共部门组织和其使用协同创造过程的文本分析技术的研究框架和建议。
- 可解释人工智能的手段和目的描述
本论文从事端到端认识论,将不同的 XAI 主题、利益相关者和目标归类,提出了一种基于不同目标、利益相关者和目标制定的不同方法的 means-end XAI 方法。
- 联邦灾害援助政策 —— 宣言式分析
本文采用新的定量方法,从三个不同的利益相关者的角度,对联邦灾害援助政策进行了量化分析,并考虑了三个政策修改,分析了随着过程的变化,利益相关者满意度的变化。该分析被用于根据所有集体利益相关者的首选项来排名四种政策的好处程度。
- AI 教育透明度指数框架
本论文提出了一个透明度指数框架,着眼于透明的人工智能教育系统在数据收集、实现职责和安全性等方面的实现,并展示了透明度如何实现其他如可解释性和责任方面的道德人工智能纬度。
- 超越专业知识与角色:可解释机器学习参与者及其需求的框架
通过对利益相关者进行更细致的区分和认知,使黑匣子自动化系统更易于被解释和理解,在机器学习、数据领域和一般环境中对利益相关者进行了表征,并区分了域目标和可解释性任务。通过对我们的框架的描述、评价和生成力的评估,我们发现我们对利益相关者的更微妙 - 面向外部利益相关者的机器学习可解释性
本文主要介绍了在高风险背景下机器学习算法变得越来越重要的情况下,为了能够更好地解释机器学习算法,需要考虑相关方利益,例如终端用户,监管机构和领域专家。但是目前较少有关于实现解释性机器学习的工程实践,因此我们进行了一个闭门的研讨会,汇集了学界 - 指标问题是人工智能的根本问题
通过真实案例研究,本文探讨了当前 AI 方法中度量标准的错误使用导致的负面后果,并倡导使用多个度量标准,结合定性分析,并涉及各种利益相关者,以减轻度量标准重视过度造成的伤害。
- 关于机器学习:对机器学习生命周期中理解与透明度进行注释和基准测试
ABOUT ML 项目是推动机器学习透明度和标准文档实践的倡议,致力于整合各方努力并引入被遗漏的声音,以塑造未来对话。
- NIPS医生就是不接受这样的事实!
机器学习的不可解释性给人带来了很大的困扰,因此需要建立可解释模型,以规避应用中可能引起社会伤害的风险。为了推进机器学习的可解释性,我们需要重视现实问题及其相关利益相关者的要求,将其可行性进行考虑。