本研究提出了行之有效的 Interpretable Knowledge Tracing (IKT) 模型,使用机器学习和数据挖掘技术从学生响应数据中提取有意义的潜在特征,从而预测学生的未来表现。该模型可为真实世界的教育系统提供自适应和个性化的教学,并具有因果推理能力。
Dec, 2021
基于大型语言模型的认知引导框架可在少量学生记录的情况下追踪学生的知识,并提供自然语言解释。实验结果显示,大型语言模型可与竞争性深度知识追踪方法相当或更优。
May, 2024
该论文综合系统地回顾了知识追踪 (KT) 领域的文献,涵盖了从早期尝试到使用深度学习的最新现状,强调了模型的理论方面和基准数据集的特征,阐明了相关方法之间的关键建模差异,并以易于理解的格式总结了它们。最后,我们讨论了 KT 文献中的当前研究差距和可能的未来研究和应用方向。
Jan, 2022
人们对越来越多的决策由机器完成的需求增加,但黑盒模型的决策推理令人不解,因此需要关注决策推理的清晰度与可解释性,以及如何扩展到反事实思考。
Nov, 2023
这篇论文概述了解释机器学习算法决策的不同方法,并将它们应用到医学研究中,以提高医生对这些算法的信任度。
Jul, 2019
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
有关解释人工智能的最佳实践和挑战的调查表明,现有的解释方法尤其是对于深度神经网络而言不足以提供算法的公正性、数据偏见和性能。
May, 2018
阐释可解释的人工智能(XAI)技术应用于复杂模型的机器学习系统中,以增强其透明度与验证,从而取得用户的信任。然而,XAI 在部署上存在局限性,因此透明度和严格验证更适合在获取人工智能系统信任时使用。
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020