关键词interpretable insights
搜索结果 - 5
- 从潜在到明晰:将知识图谱嵌入转化为可解释的结构
本论文介绍了一种针对知识图嵌入模型的事后可解释人工智能方法,通过直接解码嵌入在知识图中的潜在表示,识别相似嵌入实体的子图邻域内的不同结构,并将这些见解转化为人类可理解的符号规则和事实,在知识图嵌入模型的抽象表示和预测输出之间构建了桥梁,提供 - WWW张量时间序列的动态多网络挖掘
本文提出了一种名为 Dynamic Multi-network Mining(DMM)的新方法,用于将张量时间序列转化为一组具有多种长度(即聚类)的段群,并结合 l1-norm 的依赖网络对其进行子序列聚类,以实现可解释性、准确性和可扩展性 - 学习标准化函数的等变性
本文提出了基于对称性神经网络的一种替代方案,通过学习生成数据的规范表示来避免架构约束。并为多个感兴趣的组提供了实现它们的明确方法,证明了学习神经网络来执行规范化比使用预定义启发式方法更好,并且该方法在实践中实现了出色的性能表现。
- 心理治疗会话的神经主题建模
本文利用神经主题建模方法比较了不同精神疾病治疗过程的言语记录,并将时间建模,为治疗师提供解释性见解,优化治疗策略并提高疗效。
- 可解释的多时段时间序列预测的时间融合变压器
介绍了一种名为 Temporal Fusion Transformer(TFT)的基于注意机制的新型深度学习模型,以高效且可解释的方式解决多步预测中存在的多个输入和时间动态性问题,在实际数据集上表现出显著的性能和可解释性。