探索减少捷径行为的分类
提出一种新颖的交互式学习框架,包括目标分类器的解释性查询以及对相应预测的可视化解释,从而提高了学习模型的预测和解释能力以及用户对其信任度。
May, 2018
通过交互式机器学习,将对比解释应用于黑盒机器学习系统,个性化调整其条件语句并通过提问“What if?”的方式提取更多解释,从而提高系统的透明度。
Jan, 2020
提出了一种称为解释性引导学习(XGL)的新型交互式学习策略,其中机器通过全局解释来引导人类监督员选择具有信息量的分类器示例,这种方法有效避免了机器供给的局部解释可能过高估计分类器质量的问题。
Sep, 2020
提出了一种名为Compare-xAI的基准测试框架,该框架统一了xAI算法的所有排他性功能测试方法,帮助研究人员、从业人员和普通人解释模型结果,同时提供了可互动的用户界面。
Jun, 2022
本文提出了一个基于语义学习的交互框架,将人类提供的构建性和上下文反馈融入到机器的学习过程中,提出了一种称为SemanticPush的技术,该技术能够有效地为机器推理向期望的行为进行人类概念修正的转化。我们在多分类任务中展示了基于语义学习的交互框架明显优于现有的IML策略CAIPI,表现出更好的预测性能以及更好的局部解释质量。
Sep, 2022
本研究使用了Explanatory Interactive Learning方法中的Gradient-weighted Class Activation Mapping模型,比较了两种用户反馈类型对图像分类任务的影响,结果表明,指出并注释模型找到的虚假图像特征比告诉模型专注于有效图像特征的反馈会导致更好的分类和解释准确性。
Sep, 2022
该研究探讨通过多种解释方法进行同时模型修订,以应对机器学习模型存在的短路学习和假相似性等局限性,提出了解释式交互式机器学习框架(XIL),其需考虑多个解释方法来修订模型。
Apr, 2023
OpenHEXAI是一个开源框架,旨在解决人工智能可解释性方法的人类中心评估的挑战,它包括多样的基准数据集、预训练模型和事后解释方法、易于使用的用户研究Web应用、全面的评估指标以及实验证明最佳实践的工具。基于OpenHEXAI,该研究进一步对四种最先进的事后解释方法进行了系统评估,并比较了它们在准确性、公平性以及用户对机器学习模型的信任和理解方面对人工智能决策任务的影响。
Feb, 2024
机器学习解释的复杂性和局限性对解释的解读产生了多重影响,本研究对现行可解释人工智能方法的局限性进行了系统调查,并提出了一种分类框架来揭示解释失败的复杂性。
May, 2024
本研究解决了大语言模型在计算社会科学任务中的指令微调与上下文学习效果差异的关键问题。通过实验,我们发现上下文学习在大多数任务中优于指令微调,且仅增加训练样本数量并不一定提高模型性能。研究强调了在少量样本情况下优化样本质量和提示策略对提升模型分类性能的重要性。
Sep, 2024