NIPS 2016 可解释机器学习复杂系统研讨会
2016 年 ICML Workshop 于纽约举办,邀请了 5 位演讲嘉宾 Susan Athey、Rich Caruana、Jacob Feldman、Percy Liang 和 Hanna Wallach,讨论了在机器学习中人类可解释性的问题。
Jul, 2016
这篇研究论文总结了第 39 届国际逻辑编程会议(ICLP 2023)在英国伦敦帝国理工学院于 2023 年 7 月 9 日至 7 月 15 日举行的技术交流。涵盖了主会场、博士生学术研讨会、应用与系统 / 演示研讨会、最近发布研究研讨会、一起探讨研讨会、逻辑编程与机器学习、逻辑编程与可解释性、伦理和可信度研究等领域。
Aug, 2023
本文旨在提供可解释机器学习的基本原则,解决常见误解,并识别了十个技术挑战领域,包括稀疏逻辑模型、神经网络中的监督和非监督可分离性、增强学习的解释性等。此次调查适用于对可解释机器学习感兴趣的统计学家和计算机科学家。
Mar, 2021
EMNLP 2018 BlackboxNLP Workshop reviewed techniques to analyze and understand neural models of language, including manipulating inputs, decoding intermediate representations, modifying network architectures, and examining performance on simplified or formal languages.
Apr, 2019
第三届国际法律领域挖掘与学习研讨会 (MLLD-23) 的会议记录,与第 32 届 ACM 信息与知识管理国际会议 (CIKM-2023) 同时在英国伯明翰大学举行,于 2023 年 10 月 22 日星期日举行。
Oct, 2023
本文分析了 Neural Information Processing Systems 会议上关于机器学习的论文审查数据,并测试了从审稿人收集序数排名的效用,旨在检查审查流程的严谨性并提供对后续会议审查流程设计有用的见解。
Aug, 2017
该论文通过 PRISMA 框架对机器学习模型的可解释性和可解释性进行了系统的文献综述,重点研究了在预测性过程挖掘中使用复杂业务流程数据训练的机器学习模型的解释挑战,区分了内在可解释模型和需要事后解释技术的模型,并全面概述了当前方法在各应用领域的应用及其应用。通过严格的文献分析,该研究对预测性过程挖掘中的可解释性和可解释性状况进行了详细综合,识别了关键趋势、挑战和未来发展方向。研究结果旨在为研究人员和实践者提供更深入的了解,以开发和实施更可靠、透明和有效的智能预测性过程分析系统。
Dec, 2023
AI 医疗技术对健康医疗产生重大影响,本文回顾了在医疗领域中可解释机器学习(IML)和可解释人工智能(XAI)的过程和挑战,着重关注质量控制,并针对实验结果阐明了健康医疗中稳健解释性的重要性,为创建可沟通的医生 - 人工智能工具提供了见解。
Nov, 2023