从物理数据学习有效的良好变量
该研究介绍了两种机器学习建模方法 —— 不变性随机特征和不变性核方法,其中不变性核方法包括全局平均池化的卷积神经网络的神经切比雪夫核。研究表明,建立不变性机制使得机器学习模型样本容量和隐藏层单元数量成指数降低,从而在保持测试误差不变的情况下提高统计效率。此外,研究表明,数据增广与无结构核估计等价于一个不变性核估计,具有相同的统计效率。
Feb, 2021
通过结合机器学习技术和基于物理推理的方法,本文引入一系列可能的高斯过程模型,以提高基于有限数据的预测模型建立能力。这些方法可以显著减少对数据收集的依赖,并增强模型的可解释性。
Sep, 2023
通过 Derive a strictly non-zero 单一泛化受益 & effective dimension 分析 无限制域问题,研究 Feature averaging 引起的压缩群下不变性以及 kernel Hilbert space 和 kernel 的正交分解。
Jun, 2021
介绍和讨论 IV 方法及其在因果推断和机器学习中的应用,主要包括两阶段最小二乘法、控制函数和 IV 评估;总结了实际应用场景中的数据集和算法,并讨论了未来研究的方向和问题。
Dec, 2022
应用深度生成模型通过物理学定理来传递极高复杂物理系统中的不确定性。我们构建出一个隐式变分推断公式,并顺利地运用物理学原理作为模型输出的约束条件。这让模型在面对高成本数据采集以及通常小型训练数据集的物理系统建模时具备了一种可扩展的方法来描述随机输入或观测和物理系统输出的不确定性,并以传输动态为规范示例来验证了方法的有效性。
Dec, 2018
本文研究基于最近引入的不变理论 I 理论的随机特征映射。我们通过组变换的累积分布得到了一组不变的信号标记。本文将不变特征学习与内核方法相结合,并表明该特征映射定义了一个预期的 Haar 积分内核,对指定的组操作具有不变性。此外,本文还分析了此非线性随机特征映射如何在 N 个点上均匀近似组不变内核,并证明了它在等价的不变再生核希尔伯特空间中定义了一个密集的函数空间。最后,我们量化了在经典监督学习环境中使用这种不变信号表示进行信号分类的经验风险最小化的收敛误差率以及样本复杂度的降低。
Jun, 2015
在因果模型中,假定给定的机制对其他机制的变化是不变的。我们通过建立不可能的结果,表明仅靠不变性无法识别潜在的因果变量。结合实际考虑,我们利用这些理论发现来强调通过利用不变性来识别表示的需求需要额外的约束。
Dec, 2023