- SIGIR课程推荐系统需要考虑就业市场
开发了一个课程推荐系统,该系统能够结合就业市场的技能需求,并且突出显示了解释性、无监督技能提取和强化学习等特点。
- 使用深度符号分类的可解释欺诈检测
欺诈检测的需求越来越大,需要解释性、透明性和数据驱动的模型。本文提出了深度符号分类(DSC)作为一个扩展,通过搜索所有解析函数的空间来进行分类问题的优化,同时通过深度神经网络进行训练和引导,解决了类不平衡的问题,提高了模型的解释性,并在 P - 可解释的时空图神经网络
提出了一种可解释的空时图神经网络(STExplainer)框架,以提高 Spatio-temporal Graph Neural Networks(STGNNs)的可解释性,同时实现准确的预测和可信的解释。通过与其他模型的实验比较,证明 S - 利用编码器 - 解码器进行可识别的认知诊断模型学生表现
提出了一种新颖的可识别认知诊断框架,通过灵活的诊断模块直接诊断可识别和可解释的考生特征和问题特征,并利用一个通用的预测模块从诊断结果中重建响应日志,以确保后者的精确性。通过对四个公开真实数据集的实验,证明了 ID-CDM 的可识别性、可解释 - ICML强化学习中的反事实解释策略
通过引入反事实解释,COUNTERPOL 框架能够分析强化学习政策,并找到引导所需结果的政策最小改变,展示其在设计和开发反事实政策方面的实用性。
- SHARCS:可解释多模态学习的共享概念空间
本文介绍了一种基于共享概念空间(SHARCS )的可解释的多模态学习方法,该方法能够将来自不同异构模态的可解释的概念学习和映射到单个统一的概念流形中,从而得出具有内在解释能力的任务预测,同时提高下游预测性能,并在检索缺失模态和跨模态解释等方 - SemEval-2023 任务 10 中的 LCT-1: 预训练和多任务学习用于性别歧视检测和分类
这篇论文讲述了如何提高对网络性别歧视检测的可解释性,并对比了单一任务和多任务学习在不同子任务下的表现。
- INSTRUCTSCORE:自动反馈的可解释文本生成评估方法
该研究介绍了 INSTRUCTSCORE,一种可解释的用于评估文本生成的评估度量标准,通过利用显式人类指令和 GPT4 的隐式知识来创建评估度量标准。研究结果表明,INSTRUCTSCORE 可以在不需要人类数据之间达到类似于 COMET2 - 医疗保健可解释人工智能综述:为什么、如何和何时?
本研究系统分析了解释性人工智能(XAI),重点考虑目前在医疗领域中使用的模型。研究分析了 XAI 的流行趋势,并介绍了研究的主要方向。此工作的讨论将有助于规范 XAI 领域。
- CVPR零样本全域面向素描图像检索,并具有可解释性
本文研究了零短距离素描图像检索(ZS-SBIR)问题,并提出了一种基于 transformer 的跨模态网络,包括可学习 tokenizer 的自我关注模块,计算视觉 tokens 之间的交叉关注模块,以及基于核的相关网络,通过对组之间的比 - FrameBERT: 带有框架嵌入学习的概念隐喻检测
本文提出了基于 RoBERTa 的模型 FrameBERT,旨在通过学习和整合 FrameNet 嵌入,实现概念级别的隐喻检测,并成功地达到了与现有最优模型相当或更好的效果,且较为可解释和易解释,其能力归功于对 FrameNet 外部知识的 - 大语言模型和答集编程实现可靠自然语言理解
提出了一个结合了大型语言模型和逻辑编程 Answer Set Programming 的框架 STAR,通过在语言上提取知识并利用 ASP 进行规定驱动的推理,以提高针对需要推理的 NLU 任务的性能和可解释性。
- COLING一种用于可解释假新闻检测的粗到精级联证据蒸馏神经网络
本研究提出了一种基于媒体上流传的原始报道的可解释的假新闻检测方法,使用粗到细的级联证据蒸馏神经网络来选择最可解释的句子以提供 verdict,并构建了两个可公开获取的可解释假新闻数据集。实验表明,该模型显著优于现有基线模型,从不同角度提供高 - EiX-GNN : 图神经网络的概念层特征中心性解释器
本文提出了一种名为 EiX-GNN 的新方法,可以编码解释图神经网络的社会依赖关系,并介绍了解释者概念吸收度的概念来适应解释需要,实现了针对真实数据的定性研究和比较,并在公平性和简洁性方面取得了良好的结果。
- REM: 胶囊网络的路由熵最小化
本文提出 REM 方法,通过剪枝机制将模型参数分布约束到低熵配置,从而最小化解析树状结构的熵,提高 Capsule Networks 模型解释性并构建更强的胶囊间联系。
- AAAI基于个性化注意力的可解释学生成绩预测:阐释学生失败的原因
本文提出了一种新的、可解释的个性化关注机制的学生成绩预测模型,利用双向长短期记忆 (BiLSTM) 模型提取具有特定模式的路径中的语义信息,并提出了局部和全局级别的关注机制来区分不同学生或课程的影响,从而有效地预测学生表现,结果表明该模型在 - 姜并不能治愈癌症:用综合数据仓库对抗虚假健康新闻
构建了一个综合的存储库 (FakeHealth),包括富有特征的新闻内容、详细解释的新闻评论、社交互动以及用户 - 用户社交网络,以缓解假健康新闻检测面临的挑战,并进行了探索性分析,讨论了未来的研究方向。
- ICML解释是有用的:通过惩罚解释来使神经网络与先验知识相一致
本文提出了一种名为 CDEP 的方法,可帮助实践者利用现有的解释方法来增加深度学习模型的预测准确性,并使用上下文分解(CD)提供的解释来演示该方法在一系列玩具数据集和真实数据集上提高了性能。
- explAIner:一种交互和可解释的机器学习视觉分析框架
该论文提出了一个交互式和可解释的机器学习框架,同时结合了一个迭代的 XAI 管道和八个全局监控机制,通过可视化分析系统 explAIner 在 TensorBoard 环境下执行,增强了用户了解机器学习模型以及发现其局限性、优化和更新的能力 - 利用场景图进行视觉问答的实证研究
本文提出了一种使用场景图和图网络进行视觉问答的方法,具有比当前最先进的视觉问答算法更清晰的架构,同时可以解释推理过程,展示了可解释的视觉问答的潜力。