- 非线性特征映射下的少样本学习的数学理解
我们研究了数据分类问题,探究了机器学习模型的特征空间几何形态、数据分布结构和泛化能力之间的关系,发现非线性特征转换对于将原始数据映射至高维甚至无限维空间对模型的泛化能力有重要影响。
- NeuGuard:轻量级神经元引导的成员推断攻击防御
本文提出了一种名为 NeuGuard 的神经元引导防御方法,用于防御机器学习模型的隐私风险,该方法包含限制最终输出神经元和内部神经元激活的班级方差最小化和层平衡输出控制,且在对比实验中表现优异。
- 利用 GPT-3 扩充数据,提高短文本分类的性能
该研究针对 GPT-3 模型训练数据不足的问题,通过自动生成的样本增强小型训练集,在数据科学相关问题分类任务中比较了两种分类器的效果,证明了给予大型机器学习模型如 GPT-3 自己提出附加训练示例可以提高分类性能的结论。
- Aksharantar: 为未来十亿用户构建开放的音译工具
本文介绍了 Aksharantar,它是 21 种印度语言中最大的公开可用的音译数据集,包含 2600 万个音译对。我们使用从大型单语和平行语料库中挖掘音译对,并采集人工注释以确保具有不同单词和低资源语言的多样性。我们在 Aksharant - CVPRWebFace260M: 百万级深度人脸识别基准测试
本研究提供新的百萬級別人臉識別測試基準,名為 WebFace260M,包括 4 百萬的姓名列表和 260 百萬的人臉圖像。使用此基準,研究人員開發了有效的分散式框架,並在各種環境中進行了全面的基準測試,顯示出極大的潛力。
- EMNLP使用 WikiHow 进行目标、步骤和时间排序的推理
该研究提出了关于过程事件中两种类型的推理任务:目标 - 步骤关系和步骤 - 步骤时间关系。通过基于 how-to 文章的 wikiHow 数据集,建立人类验证的测试集和生成自动训练集。经实验证明,训练集有效地提高了在 SWAG,Snips - ECCV针对手 - 物交互情况下 3D 手势姿态估计的未知视角、关节、形状和物体的泛化测量
研究 3D 手势姿势估计中不同类型方法的泛化能力,并通过公开挑战评估插值和外推的训练集姿势的能力,透彻分析了数据预处理、集成方法、使用参数化的 3D 手模型(MANO)以及不同的 HPE 方法 / 骨干网络对 3D 手姿势估计的影响,使得总 - ICLR旨在要求泛化的 GAN 基准测试
通过转向神经网络分歧(NND),本文实现了一个基于样本的黑盒测量度量图像生成的多样性、采样质量和泛化。
- 对比增强 CT 成像中肾脏和肾瘤分割的最新技术:KiTS19 挑战的结果
本文研究利用基于深度学习的自动三维分割方法识别肾脏肿瘤并自动量化其形态,提供 210 多个样本的训练集和约 90 个样本的测试集。
- MM具有贝叶斯差分隐私的自适应统计学习
通过使用贝叶斯差分隐私技术,本研究表明,对于存在不相关性和相关性的数据样本,通过扰动和协调估计值可在自适应统计学习中重复使用保留数据集。
- 真实还是虚假?学习区分人造和机器生成文本
本篇论文研究了如何使用预训练的自回归语言模型生成负样本来训练基于能量的模型(EBM)来区分真实文本和自动生成的文本,并探讨了 EBM 的泛化能力及其对负样本产生的影响。
- CNN 中通过训练集污染实施后门攻击且不添加标签毒化
该论文研究了针对深度学习系统的后门攻击,提出了一种不使用标签毒化的新型后门攻击方式,并在 MNIST 手写数字识别和交通标志分类任务上得出了实验结果。
- AAAI深度神经网络模型中样本的学习能力比较
本文提出了一种测量深度学习模型中样本可学习性的方法,并实验证明,该方法在不同的深度学习模型中均具有高度的线性相关性,从而有助于了解数据的特性并改进训练的课程设置。
- ECCV语义分割的判别式非分布检测
本文提出了一种针对视觉分类中的开放世界场景中的数据分割问题的新方法,该方法能够训练出一个专门针对原始训练集以及更大的 “背景” 数据集的 ODD(出现在分布之外的异常值)检测模型,并在测试复杂自然图像的数据集中得到了优异的表现。
- 带 PAC 保证的开放类别检测
本论文研究开放类别检测中的一种简单但实际相关的变体,提出了一个算法,它在最小化误报的同时,具有 PAC 风格的保证,可以保证超出限定阈值的远程样本被检测,为开放类别检测中的更多进一步研究提供了一个基准。
- CVPR半参数图像合成
采用半参数方法进行基于语义布局的摄影图像合成:利用训练集中构建的图像片段的记忆库与深度网络相结合,比目前纯参数化技术更能生成逼真的图像。
- 一个简单有效的故事推断测试方法
本文通过采用基于 skip-thought 嵌入的全用户反馈前馈网络,对 Story Cloze Test 进行研究,发现忽略训练集,只对验证集进行训练可以获得更高的准确度,而仅考虑提示的最后一句话而非整个提示,利用我们的方法能够获得更高的 - 深度学习的扩展是可预测的,实证的
本文采用实证方法针对机器翻译、语言建模、图像处理和语音识别等 4 个机器学习领域的数据,研究训练集大小、模型规模与推广误差之间的关系,结果表明推广误差遵循幂定律缩放,且模型改进只改变误差而不影响幂指数。此外,模型大小随数据规模的增大缩小,这 - AAAI搜索引擎引导的非参数神经机器翻译
本研究提出了一种基于注意力机制的神经机器翻译(NMT)模型,并允许它在训练后访问整个平行句子对训练集。该模型由两个阶段组成:检索阶段和翻译阶段,实现了在源句子和一组检索的平行句子对之间的平滑翻译。在三种语言(En-Fr,En-De 和 En - CVPR训练集自适应去污染:判别式视觉跟踪的统一公式
提出了一种用于跟踪的检测框架的新方法,该方法通过估计样本质量来动态地管理训练集并降低损坏样本的影响,并通过在目标外观模型和样本质量权重上最小化单个损失的统一公式实现,最终在三个数据集上实现了最新的结果提升。