AAAINov, 2019
道德解释型人工智能的场景与建议
Scenarios and Recommendations for Ethical Interpretive AI
John Licato, Zaid Marji, Sophia Abraham
TL;DR人类有理智推断的能力,是人工智能系统需要学习的技能之一。本文通过研究一个涉及伦理规则的数据集,提出人工智能系统应如何实现可以模仿人类成因推断的能力,并给出了相关建议。
Abstract
Artificially intelligent systems, given a set of non-trivial ethical rules to
follow, will inevitably be faced with scenarios which call into question the
scope of those rules. In such cases, human reasoners typically will engage in
→
发现论文,激发创造
人工智能模型语义可解释性
本研究从广阔的角度观察模型可解释性,超越了机器学习的范畴,涵盖了分布语义学和模糊逻辑等不同的人工智能领域。我们根据模型的性质和它们引入可解释性方面的方法进行分类,并分析每种方法如何影响最终用户。同时指出还需要解决的问题,以提供更以人为本的解释性解决方案。
Jul, 2019
人工智能能为我做些什么:评估机器学习解释在合作游戏中的作用
我们提出了一种解释方法,并通过一个真实的任务和真实的人类用户的评估来衡量它的有效性。这项工作旨在为人机协作中的自然语言处理提供设计指导。
Oct, 2018
使人工智能可理解:哲学基础
人类和人工智能是否能共享概念并进行交流?《使人工智能变得可理解》展示了意义形而上学的哲学研究如何回答这些问题,Cappelen 和 Dever 利用哲学中的外在主义传统构建了人工智能和人类相互理解的模型,从而改进了哲学传统,给出了有关理论和实践的重要答案,为实现可解释的人工智能迈出了重要的第一步。
Jun, 2024
模型可解释性的人类评估的挑战与机遇
本文提出了 “描述性解释” 和 “说服性解释” 的区别,讨论了功能解释与认知功能和用户偏好可能相关的推理,并提出了两个研究方向来消除认知功能和解释模型之间的歧义,保持准确性和可解释性之间的权衡控制。
Nov, 2017
当人工智能代替我们回答问题时的认知考虑
通过使用逻辑 - 符号推理来解决人工智能可能存在的认识上问题,来避免擅自运用人工智能对输出内容和结果的不当控制,从而遵守 Grice 的质量最大化和 Lemoine 的法律无罪最大化原则。
Apr, 2023