- 混合增强与多种插值
在本文中,我们提出了一种称为多重揉混(multi-mix)的简单而有效的扩展方法,它通过从样本对生成多个插值样本,可以比标准 mixup 更好地引导训练过程,从而在泛化性能、鲁棒性和校准度方面超过了各种 mixup 变体和非 mixup 基 - 在瓦瑟斯坦空间中使用连续平均进行高效的轨迹推理
通过水平曲线空间内连续均值的 B 样条逼近和插值,我们提出了一种处理粒子轨迹推断问题的方法,可以在一定精度和光滑度下自动处理时间上的分裂情况,并通过对模拟细胞数据进行测试,在推断轨迹方面表现出卓越性能,并突出了尊重数据固有几何特性的插值和逼 - 降秩自编码器 —— 增强非线性流形上的插值
我们介绍了 Rank Reduction Autoencoder (RRAE),这是一个具有扩展的潜在空间的自编码器,通过约束具有小的预定主奇异值数量(即低秩)来实现。RRAE 的潜在空间足够大,可以实现准确的预测,并进行特征提取。
- 三层神经网络非多项式激活函数的记忆容量
神经元、前馈神经网络、激活函数、插值、插值能力
- 使用概念器实现循环神经网络的自适应控制
本文展示了通过将网络的某些部分保持适应性,即使在训练之后,增强了其功能和稳健性,并且展示了适应性网络在插值、网络部分退化稳定化和输入扭曲鲁棒性方面的计算功能,同时强调了适应性网络在机器学习中的潜力,使其不仅能学习复杂模式,还能动态调整以适应 - 从点云中提取多样性信息
提出一种基于核的方法,用于构建定义函数,它可以应用于从完全维数的流形到点云的任意有界光滑流形的内插和分析,通过线性组合平移核函数得到签名函数,可用于估计维数、法向量和曲率,方法以全局性、不依赖于数据集中其他结构的特点,通过一种变分形式进行正 - AID:文本图像扩散的注意力插值
条件扩散模型通过注意力插值技术实现图像的无缝插值,可用于处理潜在空间的插值问题,同时解决了文本或姿势等特殊条件下的插值问题,并提供了更好的一致性、平滑性和效率性。
- Hermite 坐标插值核函数:图像缩放应用
基于 Hermite 样条插值的图像缩放方法在 PSNR 和 SSIM 误差度量方面优于传统卷积和深度学习方法,适用于多数测试图像和级联重复的缩放操作。
- CVPR光谱与空间相遇:协调 3D 形状匹配和插值
本研究提出了一个统一的框架,用于预测 3D 形状之间的点对应和形状插值,结合了深度函数映射和经典表面变形模型,在谱域和空间域中进行形状映射。实验结果表明,该方法在形状匹配和插值方面优于以往最先进的方法,甚至超过了有监督学习方法。
- 团结共识,共著失败!基于同时在 75 个数据集上进行预训练的时间序列表示学习
自我监督对比式预训练方法和插值方法在多个时间序列数据集上的学习表明,可以从多个时间序列数据集中学习,对于低数据情况下的微调具有优势。
- 神经 ODE 中深度和宽度之间的插值相互作用
神经常微分方程(neural ODE)的宽度 p 和层转换的数量 L 之间存在平衡折衷,通过对数据集插值和度量插值进行评估,发现对于数据集插值,L 随着 O(1 + N /p)的规模变化,对于度量插值,L 为 O(1 +(pε ^ d)^ - 级联侵蚀深度监督的显著目标检测
在深度卷积神经网络中,通过设计全局 - 局部对齐关注(GAA)网络和边缘侵蚀的深度监督策略,减少了插值对特征和标签的负面影响,相比现有方法,在五个常用数据集上实现了更好的结果。
- 神经网络在近似和优化方面的限制
我们研究了神经网络作为替代模型来近似和最小化优化问题中的目标函数的使用,通过确定适合目前非线性优化测试问题目标函数近似的最佳激活函数来提供证明,我们分析通过插值 / 回归模型和神经网络获得的函数值、梯度和 Hessian 矩阵的近似精度,结 - 最小范数浅层降噪器在函数空间中的外貌如何?
深度学习去噪网络的理论性质研究,发现其函数具有包含简单线性插值的特征,并且通过实验证明其具有低噪声水平下超越经验 MMSE 估计器的泛化能力。
- 通过感知机的最小范数插值:显式正则化和隐式偏差
研究在使用 ReLU 网络时,通过对已知区域进行插值,证明了经验风险最小化器在数据点和参数数目趋向无穷大时收敛到最小范数插值者,当且仅当对应于网络宽度和数据点增长的特定速率消失时对权重衰减正则化项进行惩罚,在显式和隐式正则化情况下,数值方法 - 超越小批量、超越对以及超越示例的嵌入空间插值
通过提出的 MultiMix 方法,在嵌入空间中生成任意数量的插值样本,扩大了 Mini-batch 的面积,从而显著提高了 Mixup 方法在四个不同基准上的效果。
- 再生核希尔伯特空间中的 Lipschitz 与 Hölder 连续性
在这项工作中,我们研究了再生核希尔伯特空间中的 Lipschitz 和 Hölder 连续性,并提供了多个充分条件以及对诱导规定的 Lipschitz 或 Hölder 连续性的再生核的深入研究。除了新结果外,我们还收集了相关的已知结果,使 - 神经网络的记忆化:超越最坏情况
通过采用特定实例的观点,本研究论文调查了神经网络的插值方法,引入了一个简单的随机算法,通过固定的有限数据集,高概率地构建了一个可以插值的三层神经网络,其所需参数数量与两个类别及其相互排列的几何属性有关,从而获得了与样本数无关的保证,并通过大 - 关于基于单层人工神经网络的插值准确性研究
利用极限学习机来训练具有一层隐藏层的前馈神经网络(也称为浅层或两层网络),研究插值问题中的准确性以及使用 Chebychev 节点时的全局多项式逼近与 ANN 插值函数的异常行为。
- 使用浅层单变量 ReLU 网络的噪声插值学习
研究了使用最小范数两层 ReLU 网络进行有噪单变量回归时的渐近过拟合行为,发现对于 L1 损失和 p<2 的任何 Lp 损失缓解了过拟合,但对于 p≥2 却是灾难性的。