- 基于变压器模型的回归混合模型的最优学习
通过研究 transformers 在混合回归问题中的表现,我们发现它可以学习到一个最优预测器,在数据生成过程中表现出低均方误差,并且在推断时做出接近最优的预测。同时,我们证明了最优预测器可以通过 transformer 实现。
- 基于成本拒绝的回归
针对具有连续和无限目标空间的回归问题,提出了一种新颖的基于成本拒绝的回归模型,其可以通过考虑拒绝成本来拒绝对某些示例进行预测。该研究首先建立了该问题的期望风险模型,然后导出了贝叶斯最优解,表明当使用均方误差作为评估指标时,最优模型应拒绝对方 - 通过理论上保证的切比雪夫约束生成无偏伪标签 以统一半监督分类和回归
提出一种基于 Chebyshev 不等式的理论约束的无偏标签生成方法,通过多个预测结果的结合生成高质量的伪标签,用于半监督分类和回归任务。在多个数据集上的表现优于现有方法。
- ICML不变特征子空间恢复:可证明的领域普适算法新类
我们提出了一种新的算法类别,即不变特征子空间恢复(ISR),用于实现分类和回归问题的可证明领域泛化。在二元分类方案中,我们的第一种算法 ISR-Mean 可以通过类条件分布的一阶矩来识别不变特征所张成的子空间,并在 $d_s+1$ 个训练环 - 基于分布匹配的校准:可训练核校准度量
校准方法的研究提出了基于核的校准评估指标,将校准问题视为分布匹配任务,用于分类和回归,通过优化实证风险最小化的校准目标,在决策任务中提供了直观机制来量化指标和做出准确的损失估计和无悔决策,实验结果表明在一系列分类和回归任务中,这些指标作为正 - 基于距离正则化的鲁棒性脑龄预测的序数分类
通过分类任务改进了预测大脑年龄的深度学习方法,提出了一种嵌入年龄序信息的新损失函数,有效减少了系统偏差,优于最先进方法,并可以更好地捕捉独立 AD 数据集中临床组之间的细微差异。
- 使用卷积神经网络进行功能数据学习
使用卷积神经网络(CNN)对嘈杂和非嘈杂的函数数据进行回归和分类学习问题,通过将函数数据转换为 28 乘以 28 的图像,采用特定的卷积神经网络架构进行参数估计和函数形式分类的回归案例研究,应用于混沌数据的李雅普诺夫指数估计、疾病传播率估计 - 通过测试的选择非参数回归
针对误差关键的机器学习应用中存在的可能放弃预测(或选择性预测)的问题,本研究在非参数异方差回归问题上提出了一种通过对给定点上的条件方差值进行假设检验的放弃过程。与已有方法不同,提出的方法不仅考虑方差本身的值,还考虑相应方差预测器的不确定性。 - 自己混合你的一对
我们提出了一种用于回归的有监督对比学习方法 SupReMix,通过整合更丰富的有序信息,它能够培养连续有序的回归数据表示,从而显著提高回归性能,并在转移学习、样本不平衡和样本数量较少等回归挑战中表现优异。
- 神经网络能计数数字频率吗?
比较了不同的经典机器学习模型和神经网络在识别给定数字中各个数字出现频率方面的性能,研究发现神经网络在回归和分类度量方面明显优于经典机器学习模型。
- 神经预测与对齐的谱理论
使用最新的理论框架,测试了大量预测视觉皮层活动的深度神经网络,并展示了多种几何特性导致通过回归测量的低神经预测误差,从而证明了仔细分解表征度量可以解释模型如何捕捉神经活动,并指导神经活动的改进模型。
- 具有无意识污染的 GLM 回归
该研究论文介绍了第一个能够处理加性忽略噪声下广义线性模型(GLM)回归问题的算法,该算法能够处理超过一半样本受到任意损坏的情况,并提供了识别性的必要和充分条件。
- 一致性和适应性是机器学习回归任务中基于方差的不确定性量化度量验证的互补目标
可靠的机器学习回归任务的不确定性量化 (UQ) 正成为材料科学和化学科学许多研究的焦点。本文章旨在展示一致性和适应性是互补的验证目标,并且良好的一致性并不意味着良好的适应性。提出并且以一个代表性的例子进行了验证方法的调整。
- 分离型哈密尔顿神经网络
建议了三种具备可加性可分性的 Hamilton 神经网络模型,通过减少状态变量之间的复杂性,更有效地回归 Hamilton 的向量场。
- 使用简单同态加密技术进行隐私保护的 3 层神经网络训练
使用同态加密技术进行隐私保护的神经网络训练,扩展并结合现有技术,实现对三层神经网络的回归和分类问题进行训练。
- AI Hilbert:从数据和背景知识到自动化科学发现
在拥有大量实验数据的情况下,结合回归和推理的数据驱动方法能够从部分正确的背景理论中自动推导出一些著名科学定律,包括开普勒行星运动的第三定律、哈根 - 普瓦兹方程和辐射引力波功率方程。
- 最大仿射回归的一阶方法
通过最大线性模型的回归,我们对具有最大函数的组合线性模型进行了研究,这种模型在信号处理、统计学和其他多个领域中普遍存在,并且在相位恢复、学习整流线性单元激活函数等方面具有扩展性。我们提供了渐进收敛性分析,并证明了梯度下降和随机梯度下降在最大 - LCE -- Python 中的增强组合:Bagging 与 Boosting
lcensemble 是一个高性能、可扩展和用户友好的 Python 包,用于分类和回归的通用任务。该包实现了 Local Cascade Ensemble (LCE) 这种机器学习方法,进一步提升了当前最先进方法 Random Fores - 深层运算网络的尺寸下界
深度操作网络是解决无限维度回归问题和解决一类偏微分方程的一种越来越受欢迎的范式。本文旨在建立一种首次依赖数据的,能够减少噪声数据上经验误差的 DeepONets 所需的下界大小。具体来说,我们表明为了在 n 个数据点上获得较低的训练误差,分 - HandMIM:3D 手部网格估计的姿态感知自监督学习
提出了一种新颖的自监督预训练策略来回归 3D 手部网格参数,并在各种手部网格估计任务上取得了强大的性能。