利用互补示例学习解释技巧
本文研究大型语言模型在上文环境学习中如何利用解释,通过研究计算跟踪和语言表达对影响解释的有效性,我们发现两种因素对于解释的有效性都起重要作用,同时提出了一种基于最大边际相关性的样本选择方法,以构建既相关又补充的样本集,成功提高了大型语言模型在多个真实世界任务上的上下文学习性能。
Nov, 2022
本研究提出了一种名为个性化展示的新任务,以更丰富的信息形式生成推荐解释,通过对来自 Google Local 的大规模数据集的构建和收集,运用对比学习的方法构建了一个个性化多模态框架,利用多种输入模态生成多样化和可视化的解释,该框架在多种评估指标上比之前的方法有更多元化和表现力。
Jun, 2022
使用视觉语言信息结合最大子路径神经网络层,实现对于多模式信息组合的反事实解释的有效解决方法,对行为识别数据集进行对比实验并提供了信息论上的解释。
Dec, 2018
该研究旨在提供计算机辅助教学的解释方式,建立一个能够为学习者提供理解性反馈的框架,指导学习者更好地理解相关概念和知识点。研究表明,相较于其他传统方法,该框架能够显著提高学习者在复杂分类任务中的表现。
Feb, 2018
提出了一种新的深度学习视觉识别模型,可根据可见物体的特征进行分类,并生成解释说明预测标签的原因,该模型使用了一种基于采样和强化学习的新型损失函数,能够生成与现有描述方法不同的描述结果。
Mar, 2016
利用大型语言模型解释视觉模型的学习特征,通过训练神经网络建立图像分类器和语言模型之间的连接,生成大量的句子来解释分类器学习到的特征,并提取最频繁的词语,增强图像分类器的解释性和鲁棒性。
Sep, 2023
本研究提出了一种多模态方法来解释深层模型,同时训练文本生成和注意权重可视化,研究结果表明该方法可以产生更好的文本解释模型,并能更好地定位支持分类决策的证据,从而明显优于单模态方法。
Feb, 2018
该论文研究了如何利用深度学习神经网络中学习到的内在特征,利用概念分析方法和归纳逻辑编程理论,构建基于符号的模型,实现黑盒机器学习的可解释性,体现其透明度和可靠性的要求。
May, 2021
本文提出了一种可解释自然语言理解的框架,使用一小部分人类注释的解释进行训练,并采用变分 EM 方法进行优化,同时提出了基于解释的自训练方法,在两个自然语言理解任务上进行实验,证明了该框架不仅可以在监督和半监督设置下进行有效的预测,还可以生成良好的自然语言解释。
Oct, 2020
利用视觉 - 语言模型识别视觉分类任务中的基于语言的描述器,通过在图像和文本之间的预训练联合嵌入空间进行线性组合,得出每个单词与基于视觉的分类器的关联度权重,从而使非专家人员能够以非平凡水平完成专业医学任务。
Nov, 2023