- 利用对称先验进行多智体强化学习
本文提出了一个框架,通过整合数据增强和良好设计的一致性损失,利用先前的知识来改善现有的多智能体强化学习方法,该框架适用于大多数现有的多智能体强化学习算法,并在多项具有挑战性的任务上进行了实验验证其有效性,同时在物理多机器人测试平台上证明了该 - 一种自适应惩罚方法,将先验知识约束融入神经 ODE
本文提出了一种自适应惩罚算法,用于在神经常微分方程中模拟受限自然系统,并通过在人口增长、化学反应演化和阻尼谐振子运动中对其进行建模进行验证,结果表明自适应惩罚算法在模拟受限自然系统中的神经常微分方程上具有更好的有效性和可靠性。
- 知识融入的深度学习实现可解释性滑坡预测
利用基于 Transformer 的深度学习网络,结合先前知识和多源数据,预测滑坡行为,提高综合性滑坡预测能力,揭示滑坡演化和时态模式的全面理解,并通过验证模型在三峡库区滑坡和青藏高原潜在滑坡的表现,证明可解释性滑坡预测有效地确定各种滑坡的 - ICML基于领域信息的药物发现中考虑协变量漂移问题的函数先验分布
给出一个透过 Q-SAVI 集成药物领域的显性先验知识来预测新型更有效治疗方法的概率模型,通过在建模过程中引入药物化学空间的上下文先验知识,取得了令人瞩目的预测准确度和校准度表现。
- 关于标签约束的正则化和推理
在机器学习中,先验知识和符号规则通常以标签约束的形式表达,本文比较了两种常见的将标签约束编码到机器学习流程中的策略,即带约束的正则化和约束推断,并通过量化它们对模型性能的影响。通过正则化,作者表明它通过排除与约束不一致的模型来缩小泛化差距, - TablEye: 透过图像镜头看小型表格
本文介绍了一种名为 TablEye 的创新框架,通过采用域转换来克服形成表格数据的先验知识的限制,它通过生成表格图像有效地保留原始表格数据的内在语义,并利用共享数据域来获取和应用先验知识。TablEye 在 4-shot 任务中超过了 Ta - 深度学习知识的价值
本文提出了一种启发自可解释的机器学习的框架,该框架通过量化实验评估了数据量和估计范围对知识价值的影响,并阐明了数据和知识之间的复杂关系。这个模型无关的框架可以应用于各种常见的网络架构中,提供了对深度学习模型中先前知识作用的全面理解。同时,它 - 医学图像分割的多尺度渐进式文本提示网络
该研究提出了一种使用渐进式文本提示作为先验知识来指导医学图像分割任务的方法,通过使用先前训练好的先验提示编码器(PPE)生成多模式特征来实现,这使得我们可以在低数据注释成本的情况下,通过整合图像和文本信息得到高质量的分割结果。
- Generative Pre-trained Heterogeneous Graph Transformer 学习面向目标的软物体操作技能
SoftGPT 是一种预训练软物体操纵技能学习模型,具有三维异质图表示和基于 GPT 的动力学模型,通过引入先前的知识,可以有效地学习各种软物体操纵技能,包括直接从人类演示中学习。
- 通过先验知识引导的深度强化学习框架用于胸部疾病分类
本论文提出基于深度强化学习的诊断模型,并引入先验知识来指导诊断算法的学习,通过不断探索来提高诊断的准确性和模型的泛化能力,并在 NIH ChestX-ray 14 和 CheXpert 数据集上取得了竞争性的结果。
- 少样本语义分割的反射不变性学习
本文提出了一个新的少样本分割框架,通过多视角匹配的方式挖掘反射不变性。通过学习融合具有相同语义的原始和反射支持特征,得到具有更强分类表示能力的反射不变性原型。同时,还提出了反射不变性先验掩码生成模块以集成不同视角的先验知识,并通过反射不变性 - 图像恢复中 SAM 先验探究
该研究论文利用新型的图像分割神经网络,提出一种轻量级的先验调整单元,将先验知识融入现有的 IR 网络,提高了图像还原的质量。
- 基于语言知识辅助的骨骼动作识别表示学习
研究了人类理解和识别他人动作的复杂神经科学问题,提出了一种利用大规模语言模型知识辅助的图卷积网络(LA-GCN)来进行骨架动作识别,采用先验全局关系和先验类别关系提供额外监督,另外使用多跳注意力图卷积以提高拓扑建模中的信息传递效率。在 NT - 注入比较先验知识的放射学报告生成增强
本文提出了一种新的方法,通过使用标签机从医学报告中提取比较先前的信息,并将该先前信息整合到基于 Transformer 的模型中,从而更加真实和全面地生成医学报告。该方法测试表明效果优于之前的最先进模型,提供了一个有前景的方向来弥补医学报告 - 可控神经符号回归
本篇论文提出一种名为 NSRwH 的神经符号回归方法,能够结合用户给定的领域知识,实现精确预测表达式的结构,并在实验中表现出良好的准确性。
- 先知式教师引导的长尾分布学习
本文提出了一种创新的长尾学习范式,通过设计一个精心制作的 “先知” 教师,指导深度卷积网络的学习,以在长尾数据集上进行分类。实验结果表明,该方法在解决长尾数据集中类别知识有限的问题方面具有很大的潜力。
- 知识增强的图神经网络
提出 KeGNN,一种神经符号框架,结合了神经和符号方法,用于图数据的学习,旨在通过添加系统先前知识来提高精度,并通过多个基准数据集的节点分类进行评估。
- WWW辅助任务增强深度知识追踪
提出了一种名为 AT-DKT 的基于多任务学习的知识追踪方法,它使用问题标记任务和个性化先前知识预测任务来改进原始的深度知识追踪模型,以更好地捕捉学生的历史表现,并在三个真实的教育数据集上得到比所有序列模型更好的 AUC 结果。
- 神经符号连续学习:知识、推理快捷方式和概念复述
我们介绍了一种神经符号连续学习的方法,其中模型必须解决一系列神经符号任务,即它必须将子符号输入映射到高级概念,并通过符合先前知识的推理计算预测。我们提出了 COOL,一种面向神经符号连续问题的概念级连续学习策略,并在三个新的基准测试中进行了 - 视觉是否加速神经语言学习者的分层泛化?
本研究探讨了神经语言模型(LM)与人类学习者的效率差距,提出了学习者除文本外的其他模式,即视觉模式的可行性,并通过两个实验表明视觉模式在简化的人工场景下加速了 LMs 的合适的语法泛化,但在嘈杂的现实场景中,LMs 很难做到。这表明视觉有助