任务无关的机器学习辅助推理
以人工智能和机器学习为基础,本文研究了预测后推断问题的统计挑战,包括预测结果与真实结果之间的关系、机器学习模型对训练数据的鲁棒性以及将预测的偏差和不确定性传播到最终推断过程中。同时与传统领域的相关研究进行对比,揭示了设计在经典和现代推断问题中的作用。
Jan, 2024
这项研究介绍了一种无假设和数据自适应的后预测推断(POP-Inf)过程,能够基于机器学习预测的结果进行有效和有力的推断,并展示了其优越性和适用性通过模拟和大规模基因组数据。
Nov, 2023
机器学习在预测方面已经取得了很大进展,但缺乏通用人工智能,研究表明因果推断是实现机器推理和机器智能的一种重要方法,本文通过统计数据学习框架、分布分类任务和卷积神经网络特征等方面的研究,提出了一种可扩展、具有强大理论保证且在多个实际基准测试中取得最新成果的新因果推断算法。
Jul, 2016
机器学习在分布式计算系统中被广泛应用于解释和预测行为,特别是在物联网设备产生大量数据时,通过边缘设备进行数据处理和机器学习训练。为了保证服务质量,系统通过机器学习进行监督和动态调整。然而,如果机器学习模型长时间不进行重新训练,它们可能无法准确捕捉到变量分布的渐变变化,导致对系统状态的错误预测。此外,随着预测准确度的降低,报告设备应主动解决不确定性以提高模型的精确性。脑神经科学中的主动推理(Active Inference)概念可以提供这种自主决策的能力,它描述了大脑如何不断预测和评估感觉信息以减少长期的惊奇感。我们在一个智能制造案例中实现了这些概念,通过一个单一的行动 - 感知循环实现了分布式智能体,展示了我们的主动推理代理能够在满足服务质量要求的同时快速和可追溯地解决优化问题。
Nov, 2023
机器学习研究领域近年来取得巨大进展,深度学习模型在各种任务上表现出色。然而,这些模型往往在可解释性方面存在不足,因为它们作为不透明的 “黑盒子” 运行,使其决策背后的原理被遮蔽。为了解决这一挑战,我们的研究团队提出了一个创新框架,旨在权衡模型性能和可解释性之间的折衷。我们的方法以对高维数据的模块化操作为核心,可以进行端到端处理同时保持可解释性。通过融合多样化的解释技术和模块化数据处理,我们的框架可以揭示复杂模型的决策过程,而不损害其性能。我们广泛测试了我们的框架,并验证了其在实现计算效率和可解释性之间取得协调平衡方面的卓越成效。我们的方法通过在各个领域的部署中提供前所未有的对复杂模型内部工作原理的洞察,促进信任、透明度和问责制,满足当代机器学习应用的关键需求。
Jan, 2024
本文首次全面评估不同推断攻击对机器学习模型的威胁,研究了四种攻击(成员推断,模型反演,属性推断和模型窃取)的威胁模型分类,并通过实验评估了不同数据集和模型结构的表现和防御措施的有效性。
Feb, 2021
机器学习中的可解释性问题已经成为一个重要的关注点,本文提出使用模型无关的方法解释机器学习预测,这种方法可以提供选择模型、解释和表示的灵活性,同时改善了调试、比较和用户接口等问题,同时回顾了最近引入的模型无关的解释方法 LIME 及其面临的主要挑战。
Jun, 2016