利用在表示学习过程中引入可解释的 “先验知识”,我们提出了一个学习可解释公平表达的通用框架,并在 ColorMNIST 和 Dsprite 数据集上进行实验证明,在下游分类任务中,与最先进的公平表达相比,我们的表达不仅可解释,而且准确性稍高且结果更公平。
Jun, 2024
利用自由职业键功能鉴定多语种语义轴的一致性。
提出了 TOWER 技术,它是第一个自动创建可靠性判断器的技术,该技术可以根据解释技术的输出自动评估与模型无关的文本分类器的可靠性。通过使用噪声数据获得的不可靠模型进行无监督学习,找到 TOWER 的最佳配置。在人工标记的可靠性数据集上评估 TOWER,结果显示 TOWER 能够检测到可靠性的降低,但在与人工标记的数据集对比时效果不佳。初步实验结果表明我们的假设是有效和有前景的,但还需要进一步研究以更好地了解解释和可靠性问题之间的关系。
通过迭代优化算法来构建可解释且轻量级的类 Transformer 神经网络,其中采用归一化的信号相关图学习模块代替传统 Transformer 中的基本自注意机制,通过学习每个节点的低维特征来建立配对的马哈拉诺比斯距离和构建稀疏相似度图,从而实现巨大参数集的减少和信号内插。与传统 Transformer 相比,图形未解卷积神经网络在图像内插应用中验证了恢复性能、参数效率和对协变量转换的鲁棒性。
该研究论文介绍了一种可解释性图神经网络模型,名为 Graph Neural Additive Network(GNAN),通过直接可视化模型,可以在特征和图层次上提供全局和局部解释,展现模型在目标变量、特征和图之间的关系,实验证明 GNAN 与黑盒图神经网络在准确性上相当,因此适用于需要透明度的关键应用。
通过对脑成像数据集的分析,我们发现自然语言处理、词嵌入、编码模型、fMRI 数据集和左右脑相关性是关键研究领域。
May, 2024
该研究提出了神经傅里叶变换 (NFT) 算法,通过结合多维傅里叶变换和时间卷积网络层来提高预测准确性和可解释性,经过实证验证在多个预测时间范围和回顾期上表现出卓越性能,显著提高多变量时间序列预测的水平。
连接游戏嵌入和词嵌入的技术提升了游戏主题元素的语言翻译,为未来游戏主题元素的推理开启了新的可能性。
比较和评估了几个上下文和非上下文模型在土耳其语的内在和外在评估设置中的性能,通过分析模型的句法和语义能力进行了细粒度比较,并建立了土耳其词嵌入库作为土耳其自然语言处理领域的重要资源。
通过限制性归一化流策略模型作为可解释且安全的构建方式,我们实现了一种安全的强化学习方法,该方法可以满足即时安全限制,并且在整个学习过程中保持约束满足,同时提供领域知识,以提高解释性、安全性和奖励工程的效果。