双神经网络回归是一种半监督回归算法
双神经网络回归通过训练预测回归目标之间的差异而不是目标本身。该算法通过集成未知数据点的目标与多个已知锚点的差异来解决原始回归问题,其中锚点选择为未知数据点的最近邻,证明在小到中等规模的数据集上表现优于神经网络和最近邻回归。
Oct, 2023
本研究提出一种名为 Differential Nearest Neighbors Regression (DNNR) 的新方法,通过在训练期间估计局部梯度并在推断期间使用估计的梯度执行 n 阶泰勒逼近。在超过 250 个数据集的大规模评估中,我们发现,DNNR 在保持 KNN 的简单性和透明度的同时,表现与最先进的梯度提升方法和 MLP 相当,允许我们导出理论误差界并检查失败,从而在需要 ML 模型透明度的时代提供了绩效和可解释性之间的良好平衡。
May, 2022
引入张量神经网络(TNN)来处理非参数回归问题,通过其独特的子网络结构,有效地促进变量分离,从而提高复杂未知函数的近似性;与传统的前馈网络(FFN)和径向基网络(RBN)相比,TNN 在近似准确性和泛化能力方面表现优异,尽管参数规模相似;我们的方法的一个关键创新是将统计回归和数值积分集成到 TNN 框架中,从而实现了与回归函数相关的高维积分的高效计算;此进展的意义扩展到更广泛的应用领域,特别是在需要精确高维数据分析和预测的场景。
Jun, 2024
研究了半监督图分类,提出了一种名为 Twin Graph Neural Network(TGNN)的新型半监督框架,旨在利用图拓扑导出的特征以及充分利用未标记数据,通过消息传递模块和图内核模块来探索来自互补视图的图结构信息,同时通过交换实例相似性知识来协作学习标记和未标记数据的结构信息,最终在各个公共数据集上取得了良好的性能。
Apr, 2023
提出了一种名为 R2N2(残余 RNN)的混合模型,通过简单的线性模型(如 VAR)对时间序列进行建模,并使用 RNN 对其残余误差进行建模,在航空领域和气候领域中的实证评估表明,与单独使用 VAR 或 RNN 相比,R2N2 具有竞争力且更快速地训练,同时需要较少数量的隐藏单元。
Sep, 2017
该研究提出了一种半监督学习方法,利用一个 “目标网络” 和一个 “置信网络” 进行多任务训练,在大量弱注释未标注数据上优化目标网络,同时用置信网络的分数来加权目标网络的梯度更新,以避免噪声标签对目标网络模型的质量造成损害,并在评估中证明其相对基线的性能得到提高,同时从弱标签中提高了学习速度。
Nov, 2017
本文提出了一种用于在小部分标记的情况下训练深度神经网络的简单高效方法,采用自我模拟方案的集成预测来提高标签的未知性,从而使得在两个标准半监督学习基准测试中加快速度并实现更好的性能。
Oct, 2016
本文探讨半监督的 Fréchet 回归领域,提出了两种基于图距离的半监督 NW Fréchet 回归和半监督 kNN Fréchet 回归方法,扩展了现有的半监督欧几里得回归方法的范围,并确定了它们在有限有标签数据和大量无标签数据的情况下的收敛速度,并考虑了特征空间的低维流形结构。通过广泛的模拟和对真实数据的应用,我们证明了我们的方法在性能上优于自身的有监督对照方法,填补了现有研究的空白,并为半监督的 Fréchet 回归领域的进一步探索和发展铺平了道路。
Apr, 2024
该研究旨在研究半监督条件下图神经网络(GNNs)的集成学习。通过将多个薄弱学习器的输出组合起来,集成学习已经在传统机器学习中提高准确性和鲁棒性方面显示出优越性。然而,在集成不同的 GNN 模型时,由于 GNN 的推理能力较差,这个想法很具有挑战性。为了解决这个问题,在本文中,我们提出了一种高效的集成学习算法 E2GNN,以可学习的方式组合多个 GNNs,同时利用标记和未标记节点。通过开展全面的实验证明了 E2GNN 的优越性。
May, 2024