- 学习可解释的公平表示
利用在表示学习过程中引入可解释的 “先验知识”,我们提出了一个学习可解释公平表达的通用框架,并在 ColorMNIST 和 Dsprite 数据集上进行实验证明,在下游分类任务中,与最先进的公平表达相比,我们的表达不仅可解释,而且准确性稍高 - 通过展开学习的图平滑先验的可解释轻量级 Transformer
通过迭代优化算法来构建可解释且轻量级的类 Transformer 神经网络,其中采用归一化的信号相关图学习模块代替传统 Transformer 中的基本自注意机制,通过学习每个节点的低维特征来建立配对的马哈拉诺比斯距离和构建稀疏相似度图,从 - 可理解和有效的图神经加性网络
该研究论文介绍了一种可解释性图神经网络模型,名为 Graph Neural Additive Network(GNAN),通过直接可视化模型,可以在特征和图层次上提供全局和局部解释,展现模型在目标变量、特征和图之间的关系,实验证明 GNAN - 可解释的多元时间序列预测:神经傅里叶变换
该研究提出了神经傅里叶变换 (NFT) 算法,通过结合多维傅里叶变换和时间卷积网络层来提高预测准确性和可解释性,经过实证验证在多个预测时间范围和回顾期上表现出卓越性能,显著提高多变量时间序列预测的水平。
- 面向可解释的强化学习与约束归一化流策略
通过限制性归一化流策略模型作为可解释且安全的构建方式,我们实现了一种安全的强化学习方法,该方法可以满足即时安全限制,并且在整个学习过程中保持约束满足,同时提供领域知识,以提高解释性、安全性和奖励工程的效果。
- CVPR扩散模型图像生成的一种量化一致性的语义方法
通过使用对比式语言 - 图像预训练(CLIP)得出的平均语义一致性分数,本研究提出了一种解释性、定量的图像生成一致性评分,用于评估扩散模型的图像生成一致性,并发现了两种优秀的开源图像生成扩散模型 Stable Diffusion XL 和 - 3D 中的通用线坐标
这篇论文研究了在无损 3D 可视化中的可解释的交互式视觉模式发现,可以帮助非数据科学家的最终用户自主进行模型的开发过程。它结合了三种类型的 GLC:SPC、STC 和 GLC-L,实现了交互式的视觉模式发现。从 2D 可视化到 3D 可视化 - 利用空间变异自编码器融合气候数据产品
该研究提出了一种可识别和可解释的自编码器,利用贝叶斯统计框架对多个气候数据产品进行融合和组合,以捕捉有用的空间模式,并通过对数据中的模式施加约束,在学习中创建了可解释的一致性。通过在高山地区结合多个降水产品的信息,证明了自编码器的实用性。
- 对称变换的生成模型
构建一个能够明确捕捉数据中对称性的生成模型,以便以可解释的方式学习存在的对称性,并结合现有生成模型提高边际测试日志似然和对数据稀疏化的鲁棒性。
- AI 黑盒子的开启:基于机械解释的程序合成
基于神经网络的机制可解释性自动合成方法 MIPS,将学习到的算法自动转化为 Python 代码,解决了 62 个可以由 RNN 学习的算法任务中的 32 个问题,并对 GPT-4 的补充具有高度互补性,且不使用人工训练数据。
- GPT2 语言模型中的通用神经元
通过计算 GPT2 模型中神经元激活的成对相关性,研究了不同随机种子下神经元的普遍性,并发现 1-5% 的神经元是普遍的,即这些神经元在相同输入上持续激活。此外,对这些普遍神经元进行了详细研究,发现它们通常具有清晰的解释,并将其归类到几个神 - 频率导向变换的端到端优化图像压缩
基于频率导向变换的端到端图像压缩模型能够提高图像压缩性能并保持语义相容性。
- Dagma-DCE:可解释、非参数可微因果发现
我们介绍了一种可解释且模型无关的梯度可逆因果发现方法 Dagma-DCE,它使用可解释的因果强度来定义加权邻接矩阵,并在多个模拟数据集上展现了与其他方法相媲美的性能水平。
- aMUSEd:一个开放的 MUSE 复现
通过实验证明 MUSEd 的有效性,它是一种开源、轻量级的遮蔽图像模型(MIM),用于文本到图像的生成,相对于潜在扩散(latent diffusion)方法,MIM 在推理步骤上更少且更具可解释性,同时可以通过仅有一张图像进行附加风格的微 - 通过高效神经搜索发现可解释的类别特定模式
通过提取差异模式的数据中的 DIFFNAPS,我们提出了一种新颖的、固有可解释的二进制神经网络架构,该架构能够处理大规模应用中的差异模式,显示出准确、简明和可解释的类别描述。
- 幼儿扩散:快速可解释可控扩散模型
ToddlerDiffusion 是一种可解释的 2D 扩散图像合成框架,受到人类生成系统的启发,它将生成过程分解成简单且可解释的阶段,生成轮廓、调色板和详细彩色图像,不仅提高了整体性能,还实现了强大的编辑和交互能力。通过在像 LSUN-C - 利用半监督潜在过程的深度生成模型对复杂疾病轨迹进行建模
我们提出了一个深度生成时间序列的方法,利用潜在的时间过程来对复杂疾病轨迹进行建模和全面分析。通过结合生成方法与医学知识,我们展示了学习到的时间潜在过程可用于进一步数据分析和临床假设测试,包括发现相似患者和对疾病进行新的子类型聚类。此外,我们 - 鲁棒文本分类:分析基于原型的网络
基于原型网络 (Prototype-Based Networks) 的鲁棒性在自然语言处理 (NLP) 文本分类任务中能够面对现实扰动,并且主要由保持原型可解释性的目标函数支持。
- 1-Lipschitz 神经网络基于 N - 激活的表达更加丰富
通过研究激活函数的角色,论文揭示了常用的激活函数以及两段式分段线性函数在表达函数时的局限性,并介绍了一种新的 N - 激活函数,证明其比目前流行的激活函数更具表达能力。
- 模拟解释:可解释策略学习下的决策理解
了解人类行为以实现决策的透明度和责任感非常重要。我们提出了一种新颖的基于模型的贝叶斯方法进行可解释的政策学习,该方法以数据驱动的方式呈现决策行为,并在偏差的信念更新过程和次优的信念 - 行为映射之间进行联合估计,能够满足透明度、部分可观察性