- 人工智能的文件编写实践
人工智能在透明度和问责制方面面临持续的挑战,需要严格的文档支持。通过对文档实践的文献综述,我们提供了概述流行趋势、持久问题和影响文档编写的多方面因素的研究。我们对范围、目标受众、多模态支持和自动化程度等关键特征的分析,突出显示了文档实践的动 - MOUNTAINEER:基于拓扑的局部解释比较的可视化分析
使用黑盒机器学习方法中的可解释性方法,提出了一种基于拓扑数据分析的视觉分析工具,Mountaineer,用于交互式分析和比较这些解释方法,并帮助专家深入了解解释技术、理解数据分布和模型行为,通过两个实际案例展示了工具的实用性,并通过行业专家 - LLM 伦理导航:进展、挑战和未来方向
本研究探讨了人工智能领域中大型语言模型(LLMs)的伦理问题。它讨论了 LLMs 和其他人工智能系统所面临的常见伦理挑战,如隐私和公平,以及 LLMs 特有的伦理挑战,如幻觉、可验证的问责和解码审查复杂性。该研究强调了解决这些复杂性的必要性 - AI 诱发事件中的责任归因:一种用于问责的计算反思均衡框架
人工智能引入的广泛整合在涉及 AI 系统的事件中引入了复杂的责任和问责挑战;本文提出了一种计算反思均衡方法,为所有利益相关者建立了一个连贯和道德可接受的责任归因框架,结合案例研究展示了该框架在责任归因过程中的可解释性、连贯性和适应性。
- 从模型性能到声明:机器学习可复现性的焦点转变如何帮助弥合责任鸿沟
通过将模型性能可复制性转变为主张可复制性,可以使机器学习科学家对产生不可复制的主张负责并对其造成的滥用和误解负责,从而缩小责任差距。
- 增强基于 SLM 的思维能力的认知增强
通过使用认知增强的方法,我们的实验显示在应用于网络安全应用中时,较小的大型语言模型(SLM)的性能显著提高,这为进一步研究认知增强优化 SLM 打下了基础。
- 通过区块链和大型语言模型增强自主代理的信任:一种实现问责和可解释性的架构
自主代理、安全关切、解释、问责制、基于 ROS 的移动机器人的可信度与安全性解决方案及其性能评估。
- 责任互联网 - 利用大数据和区块链连接人类责任
在工作场所中,责任追究至关重要且一直是一个具有挑战性的问题,特别是在工作场所安全管理方面。本文介绍了一种新颖的概念,即 “责任互联网”,用于责任管理。我们的方法通过对危险职位的责任列表进行排序。这些职位通过有向无环图(DAGs)相互连接,表 - 坐在桌子旁够了吗?在教育机器学习中,让教师和学生参与数据集规范
通过与 ML 软件从业人员、教育者和学生进行合作设计,本研究发现利益相关者基于其领域和程序知识对数据进行情境化,积极设计数据要求以减少下游危害和数据可靠性问题,并展现了基于角色的合作策略和贡献模式。此外,研究发现,ML 中有意义的利益相关者 - 论道德人工智能中不确定性的含义:哲学与实践
解决数据科学家、统计学家和建模者在开发人工智能系统时应该负什么样的责任以及如何进行问责的争议性话题,通过减少不透明性并提高决策过程的透明度和追溯性,强调了统计学基础对人工智能系统的发展的重要性,以及如何解读和应对系统结果,从而增强模型对反馈 - TASRA:人工智能对社会规模风险的分类与分析
本文旨在通过建立基于问责制的分类法,探讨由人工智能产生的可能导致人类社会范围内灭绝的风险类型,其中包括许多未被预见的风险,并提供技术和政策上的解决方案。
- fairml:统计学家对公平机器学习建模的看法
本文介绍了 fairml R 包,该包旨在通过经典统计模型和惩罚回归结果(岭回归)实现公平和可解释的机器学习模型,并提供模型估计,选择和验证功能,以及诊断图。
- 如何解决模型风险管理中的单调性问题?
本文研究基于单调性建立透明机器学习模型的可信度和公平性问题。研究了如何在保持透明性的情况下提高单调性,并提出了神经加性模型的单调树林方法。实验证明,实践中常常违反单调性,但采用单调树林的神经加性模型具有透明性,可信度和公平性。
- 算法供应链中的责任认定
算法账户和算法供应链的治理和问责问题迫切需要关注和解决,分散的责任可能产生责任分配的挑战,而使用和责任的服务模式、监管套利等也值得关注。
- AI 政策中的可解释性:欧盟、美国和英国的沟通、报告、法规和标准的关键回顾
本文通过对欧盟、美国和英国政策文件的调查,针对可解释性人工智能的技术和社会影响进行了主题和缺口分析。发现政策通常基于对解释的粗略观念和要求。最终提出了一组关于如何解释 AI 系统的建议,其中包括定义、可行性、可用性以及分配解释提供者的责任。
- 文本可追溯视觉再现的新基准
本研究构建了一种基于文本和视觉推理的控制生成图像的方法,其中通过新构建的 CLEVR-NOT 数据集和手动制作的 Fruit-NOT 数据集对模型的准确性和行为进行了详细分析,旨在提高文本图像生成模型的可控性和可解释性。
- 以人为中心的多模态机器学习:人工智能招聘的最新进展及实验平台
本文提出了基于人性化的 AI 机器学习需满足四个主要要求:效用和社会效益,隐私和数据所有权,透明度和问责制以及人工智能决策过程公平性。通过使用自然合成个人资料,该研究展示了当前基于多种信息源的模式的算法是如何受到敏感因素和内在偏见的影响,以 - AI 中的 FATE: 走向算法包容和可访问性
本研究旨在提高 AI 领域可达性和包容性,评估 “公正,问责,透明和伦理” 相关问题的有效性,并通过使用在线社交网络的广告数据的用户研究 (n=43) 提供有用的见解,结论是:需要与社区进行合作,以期将公正,问责,透明和伦理纳入 AI 应用 - 人工智能中人类价值的代理机构之间的紧张关系
我们认为社区旨在减轻技术的潜在危害影响,通过定义公私保密、公平和透明模型等一些责任支柱作为指标是根本错误的,因为这些定义是人类价值的不完美、独立构建,而带着那些价值完全嵌入我们的技术的幌子。我们推动 AI 社区重新考虑某些支柱公式的选择带来 - 文本复杂推理的可追溯和可解释方法
研究复杂推理任务的机器学习模型的问责和透明度方法,通过暴露潜在漏洞和解释模型推理过程来提高利益相关者的信任度和发现模型决策中的错误和不公平性。