- 通过取消合成图像对文本至图像模型进行数据归因
为了识别最具影响力的训练图像以生成新图像,我们提出了一种新的方法,通过模拟反学习合成图像、增加输出图像上的训练损失,并通过代理遗忘方式找出在反学习过程中具有显著损失偏差的训练图像,并将其标记为有影响力的图像。通过与从头开始重新训练的计算密集 - 基于模拟观察函数的损失函数提升学习型 CT 重建中的信号检测能力
通过引入受模型观察者框架启发的新型训练损失函数,我们改善了重建合成稀疏视野乳腺 CT 数据中弱信号的可检测性。
- 神经网络初始化中的金发女郎区域解构
这篇论文通过对深度学习模型的优化动力学进行全面分析,探讨了训练损失的二阶性质对模型的影响,特别关注了与高度可训练的初始点相关联的 “Goldilocks zone” 概念,提出了正曲率对深度网络的可训练性的重要性,并讨论了与模型自信度、初始 - 基于卷积神经网络的目标检测算法中大尺寸物体的重要性
给出了一个在目标检测中引入加权项的方法,加权项是一个关于对象面积大小的函数,实验证明给较大的对象赋予更高的权重能够提高所有对象尺寸下的检测分数及目标探测性能。
- DeepEMD:一种基于 Transformer 的快速估计 Earth Mover's Distance
提出了一种基于注意力模型的训练损失的准确估算方法,用于生成模型并使用 Earth Mover's Distance 作为损失函数,并提供了使用该模型进行海量点云推断的显著性能提升。
- AdaFlood:自适应洪水正则化
传统上,神经网络会优化目标函数使得训练损失为零,但最近研究发现设定一个非零训练损失阈值 (即洪水水位) 通常能够实现更好的测试泛化。然而,现有的方法将相同的恒定洪水水位应用于所有训练样本,这在本质上假设所有样本具有相同的难度。本文提出了 A - 学习优化器的扩展是否值得?评估 VeLO 的价值 4000 TPU 月
通过分析 VeLO(通用学习优化器)的训练效果,我们发现其具有关键的超参数调整问题,不一定能比其他竞争对手更好地找到解决方案,并且在降低训练损失方面也不一定比其他优化器更快。这些观察结果对 VeLO 的广泛应用和培训投资的价值提出了质疑。
- 从单目视频序列中学习深度
从单目视频序列中学习单张图像深度估计模型是一个非常具有挑战性的问题。在本文中,我们提出了一种新颖的训练损失,使我们能够在训练过程中包含更多图像以进行监督。我们提出了一个简单而有效的模型来考虑帧与帧之间的像素运动。同时,我们还设计了一种新颖的 - 生物信息学机器学习中的 Anderson 加速
本文探讨了在经典机器学习分类器中使用 Anderson 加速方法的有效性与实用性,实现了一种支持向量机分类器的变体,证明了使用 Anderson 加速可以显著提高收敛速度和降低训练损失,为今后在这一领域的应用提供了有力支持。
- DIG: 在人体上覆盖隐式服装
我们提出了一种使用隐式曲面表示衣服、学习受关节体模型形状和姿势参数影响的蒙皮场的端到端可微管道来处理任意拓扑衣物的方法,并提出了一种防止体 - 衣物相互穿插和减少艺术品的预处理策略和新的训练损失。经实验证明,我们的方法相比于现有的方法,可以 - 可减损失下的强化学习样本优先级
本文提出了一种基于可学习性的样本优先级算法,能够更好地在经验回放中利用重要样本,并证明该算法优于随机抽样和传统的以训练损失率为优先级指标的方法。
- 对比学习实现少样本聚类
本文提出了 Few-Example Clustering (FEC) 算法,它使用对比学习对少量样本进行聚类,其步骤包括候选聚类分配的生成、对每个聚类分配进行对比学习和选择最佳候选,通过在 extit {mini}-ImageNet 和 - ICLR神经网络中带全局收敛保证的特征学习
该研究通过梯度流优化模型,研究宽神经网络中的特征学习和训练损失收敛问题,证明了一定条件下训练损失会以线性速率收敛于零,并展示了该模型的学习特性和推广能力。
- ICLR向量变换实现的零像素定向边界
本文提出了一种基于向量转换函数的边界预测方法,避免了传统的类别不平衡导致的粗边界问题,可同时估计方向和上下文信息,并在多个数据集上证明其出色的性能。
- 神经网络中的不变性学习
该研究提出了一种简单的过程来通过参数化 augmentations 的分布并优化训练损失一起调整网络和 augmentation 参数,从而从大量的 augmentations 中仅使用训练数据恢复图像分类、回归、分割和分子性质预测的正确不 - 深度神经网络的方向修剪
提出一种新的方向剪枝方法,用于在训练损失的平稳区域内或接近该区域内寻找稀疏解,证明了该方法在高度稀疏时对 ResNet50,VGG16 和 wide ResNet 28x10 等神经网络的同时达到与 SGD 相同的极小值,并且所找到的极小值 - ICML在达成零训练误差后,我们是否需要零训练损失?
本研究提出了一种称为 flooding 的解决方案,通过限制训练误差在一个合理的小值范围内,以达到更好的泛化效果,并在实验中证明了有效性。
- ICLR对抗自动数据增强
通过使用对抗性方法,Adversarial AutoAugment 能够通过同时优化目标相关对象和数据增强策略搜索损失,以便更快且更有效率地完成深度神经网络的训练及图像分类任务,从而将计算成本减少 12 倍,时间开销减少 11 倍,达到了最 - ICLR深度卷积神经网络的泛化界
本文基于 CIFAR-10 数据集的实验结果,提出卷积神经网络泛化误差的边界,包含训练损失、参数数量、损失函数的 Lipschitz 常数和权重与初始值的距离,且不受输入像素数和隐藏特征图的高度与宽度限制,最后与具体的实验结果进行对比。
- ACL目标条件抽样:针对多语言神经机器翻译的优化数据选择
本研究提出了一种名为目标条件采样(TCS)的有效算法,该算法基于构建一个覆盖所有多语数据的采样分布,从而最小化低资源语言的训练损失。实验结果表明,TCS 可显著提高三种测试语言的 BLEU 值,最多可达 2,同时训练开销极小。