- 健壮数据剪枝的几何中位数匹配
提出一种基于几何中位数匹配的全新数据修剪方法,通过选择近似几何中位数的子集来改善神经网络在存在噪声和腐败的情况下的剪枝效果,并在大量实验证明该方法在数据修剪方面表现优于现有方法。
- 微小预训练数据的损坏改进扩散模型
通过对扩散模型(DMs)预训练数据的综合研究,发现轻微的破坏性改变可以显著提高 DMs 生成图像的质量和多样性,同时介绍了一种简单的方法 —— 条件嵌入扰动(CEP),可大幅改善 DMs 在预训练和后续任务中的性能。
- 从不完美的人类反馈中学习:一次抗腐败对决的故事
研究论文探讨了从不完美人类反馈学习的问题,通过将人类反馈的不完美性视为对用户效用的不可知修正,提出了改进的对抗式竞争学习模型。通过证明最低遗憾下界并设计具有稳健性的梯度算法,揭示了在不同程度不完美的情况下,梯度算法在效率与稳健性间的平衡关系 - 非洲二级行政区外国直接投资的大数据分析方法
此研究提出了一种基于文本挖掘和社交网络分析的新方法,通过分析超过 167,000 篇在线新闻文章来量化影响非洲公司外国所有权的区域级(次国家级)属性,揭示区域(次国家级)的结构和制度特征在决定外国所有权中可能起到重要作用。
- 提升三维人体姿势估计的鲁棒性:一个基准和从嘈杂输入中学习
当前的 3D 人体姿势估计技术虽然表现出色,但在复杂的野外视频中理解和提升它们的普适性仍然是一个开放的问题。本文聚焦于 2D 到 3D 姿势提升器的稳健性,并开发了两个基准数据集来检验视频 - based 3D 姿势提升器对包括临时遮挡、动 - ICCV面向真实世界干扰的点云识别的样本自适应增强
在 3D 视觉领域,我们提出了一种基于样本结构的自适应转换方法,名为 AdaptPoint,用于处理潜在的破坏,通过包括预测变形参数和生成逐点蒙版在内的模拟破坏,并通过鉴别器防止生成过度破坏。实验结果表明,我们的方法在多个破坏评估中取得了最 - 探索关系抽取中的自动扰动自然语言解释
本文研究了自然语言解释在提高模型的泛化能力和数据效率方面的有效性,并发现即使是完全被破坏的解释,也仍有助于提供额外的上下文空间,从而取得与标注解释相当的结果,但计算效率显著提高了 20-30 倍。
- CVPR强化自我监督视觉 Transformer 预训练的标记增强技术
该研究提出了一种插件式的 Token Boosting 模块,可用于预先训练视觉 Transformer 模型,以在面对数据噪声和不可靠性时改善模型的鲁棒性和可泛化性。实验结果表明该模块在四个不同噪声数据集上表现稳定,且提高了下游任务的性能 - 柔性代议民主中的迎合政治
本篇研究提出一种新颖的形式化模型,称为 pander,研究了两种民主投票制度 RD 和 FRD 对于 pander 在单一和多个周期内的弹性应对方式,并使用强化学习方法研究了单一候选人和多组候选人 pander 的影响。
- 深度神经网络对数字病理学中常见损伤的健壮性基准测试
本文为评估深度神经网络在受损病理图像上的表现建立了易于使用的基准,发现了多种深度神经网络模型存在显著的精度下降和不可靠的置信度评估,并提出了一种用于将验证集替换为该基准集的新方法。
- IJCAI利用类别间距离评估机器学习分类器的抗数据篡改能力
本研究提出一种基于数据增强的测量方法,可以比较有关分类器在统计干扰下的鲁棒性,结果表明,鲁棒性训练可以通过简单的数据增强来扩展精度。
- PRIME: 几个基本元素可提高抵御常见破坏的能力
该论文提出了一种基于 PRIME 的数据增强算法,通过简单且丰富的最大熵图像变换实现对图像数据中的常见变异的鲁棒性增强,该方法能有效地提高数据增强的鲁棒性和准确性,同时可以与其他方法结合使用,具有很高的实用性和计算效率。
- MM恶意专家挑战在线预测的乘法权重算法
本文考虑了一种带有两位专家和一位预测者的预测问题,探讨了一种基于经典乘法权重算法的自适应乘法权重算法的近似最优性,并发现了恶意专家的价值函数的上下界,结果表明乘法权重算法无法抵制恶意专家的腐败。
- CVPR高度受损场景下相机位置估计:谈基而非形
提出了一种改进结构运动中相机位置估计的策略。方法采用几何一致性条件识别严重损坏的成对方向,并选择一组更清洁的成对方向用作预处理步骤以提高求解器的性能。在合成损坏模型下,我们在理论上保证了我们策略的基本版本的成功表现。人工数据和真实数据的数字 - 广义去噪自编码器作为生成模型
该研究提出了一种新的方法,能够在处理离散数据、任意形式的噪声和重构损失、同时去除偏差等方面更好地连接正则化自编码器的训练过程和对潜在生成分布的隐式估计。
- 基于主成分追踪的低秩矩阵密集误差纠正
本文扩展了 Principal Component Pursuit (PCP) 方法,通过引入改进的权重参数,可以在 “几乎全部” 条目未知的情况下恢复受破坏的低秩矩阵,并通过随机生成的数据进行了模拟验证。