- 学习中的噪声基准:从 2D 分类到 3D 重建
通过对 LNGT 的分析,我们提出了一种新的分类方法,并进行了有关记忆效应和未来研究机会的探讨,为后续研究提供指导。
- IJCAI回归任务中公平度测量方法的一致性
通过对各种回归任务进行广泛实验,本文全面研究了各种公平性度量方法的输出一致性,结果发现某些方法在特定的回归任务中表现出较差的一致性,因此需要在回归领域中采用更加原则性的方法来度量公平性。
- DistPred:一种无分布的概率推理方法用于回归和预测
DistPred 是一种用于回归和预测任务的新方法,通过使用可微分的离散形式的得分规则,可以在单次前向传递中生成大量样本来估计响应变量的潜在分布,并具有比现有方法更简单且更强大的性能和 90 倍的推理速度。
- ICML回归学习的一阶流形数据增强
研究数据增强方法在回归问题领域的应用,引入一种新的数据驱动的领域无关数据增强方法(FOMA),通过从训练分布的切平面上采样新的例子来提高神经网络的泛化能力。
- 语音化机器学习:重新审视用语言模型进行机器学习
我们引入了口头化机器学习 (VML) 框架,通过限制参数空间为人类可解释的自然语言,将大型语言模型 (LLMs) 视为由文本提示参数化的函数,通过 VML,我们重新审视经典的机器学习问题,如回归和分类,发现这些问题可以通过 LLM 参数化的 - ICML多重 $\ell_p$ 回归的核心集
通过构建核心集,我们实现了对多个响应的多元回归目标的近似,并得到了关于样本数量和子空间逼近的几乎最优的界限。
- 混合自动学习系统与应用
本文研究了一种基于深度神经网络和神经符号方法的分类和回归模型,并引入了 Logic Tensor Networks 作为神经符号预测模型,能够区分和解释异常连接和正常连接。通过详细对比和解释深度神经网络和神经符号网络的实现和结果,论文提出了 - 梯度提升映射用于降维与特征提取
我们提出了一种监督降维方法 Gradient Boosting Mapping (GBMAP),其通过一层感知器定义的弱学习器的输出来定义嵌入,从而为监督学习任务提供更好的特征,使得简单线性模型能够与最先进的回归器和分类器相竞争,并能够自动 - ICLR用于回归的 Cauchy-Schwarz 散度信息瓶颈
本文研究回归问题下的信息瓶颈原理,并通过利用柯西 - 斯瓦茨散度的优势属性,采用深度神经网络参数化信息瓶颈。通过这种方法,避免了基于均方误差的回归和变分推理的假设,研究了我们提出的柯西 - 斯瓦茨信息瓶颈模型的改进泛化能力,展示了其在六个实 - 深度回归表示学习与拓扑
该研究论文通过研究回归表示的拓扑结构及其与信息瓶颈原则之间的关系,引入了一种名为 PH-Reg 的回归特定正则化方法,实验结果表明其带来的益处。
- 基于条件生成对抗网络的广义回归
利用条件生成对抗网络来解决回归问题,通过学习预测函数的输出与输入的配对在训练数据集中无法与特征 - 标签对区分的方式,提出了一种对回归问题的新方法,相比传统回归方法,该方法在拟合数据的分布上做出了更少的假设,具备更好的表示能力,并与统计学中 - 物理学中回归问题的多准确度高斯过程代理建模
通过比较多种多保真度方法构建高斯过程代理进行回归,我们发现多保真度方法通常具有较小的预测误差,且对于相同计算成本而言,其效果因不同场景而异。
- 关于局部隐私线性情境赌博机的最佳后悔
通过分析均值绝对偏差误差和分层主成分回归,我们展示了一种能够在局部隐私线性情境播放机中实现 O (√T) 累积遗憾上界的解决方案。
- 基于回归与分类的一致性预测
将回归转化为分类问题,并使用分类的合作预测,以获取回归的合作预测集。
- DeepLINK-T:使用 knockoffs 和 LSTM 进行时间序列数据的深度学习推理
提出了一种新的方法 DeepLINK-T,结合深度学习和 Knockoffs 推断,在高维长时序数据中控制假发现率(FDR),实现特征选择。该方法通过使用 LSTM 自编码器生成时间序列的 Knockoff 变量,使用原始和 Knockof - 基于神经操作器流的通用函数回归
我们介绍了一种通用函数回归方法,该方法可以学习在数学上可处理的非高斯函数空间上的先验分布,我们开发了神经算子流 (OpFlow) 来实现这种方法,OpFlow 是一个无限维扩展的归一化流,它将(潜在的未知)数据函数空间映射到高斯过程中,通过 - 潜在嵌入聚类算法用于鲁棒性遮挡下的头部姿态估计
本文提出了一个新颖而高效的框架,通过无监督的潜在嵌入聚类与回归和分类组件来优化遮挡和非遮挡图像的潜在特征表示,并改善细粒度角度预测,在野外头部姿势数据集上得到了与最先进方法相当的竞争性能,并具有显著的数据减少优势。我们观察到遮挡头部姿势估计 - 多专家延迟回归
学习与多个专家共同推迟预测的框架,关于回归问题的推迟框架和新型代替损失函数的研究。
- $H$- 一致性保证用于回归
我们对回归的 H 一致性界限进行了详细研究,提出了适用于回归的 H 一致性界限的新定理,并针对对称分布和有界假设集的平方损失函数的代理损失函数证明了一系列新的 H 一致性界限,包括 Huber 损失、所有的 lp 损失 (p≥1)、平方 ε - FastCAR: 基于任务综合的快速分类与回归多任务学习,用于对象类的连续属性建模
FastCAR 是一种新颖的多任务学习方法,用于分类和回归任务,在任务异质性和微妙相关性下处理对象分类和连续属性变量回归,通过标签转换方法和单任务回归网络架构,在两个任务的联合学习中超越传统的 MTL 模型,达到 99.54% 的分类精度和