- IUTEAM1 在 MEDIQA-Chat 2023 中:简易调整是否对临床对话的多层摘要有效?
本研究旨在分析总结模型集合的方法,以提高医疗报告的总体准确性,虽然每个部分专门使用总结模型的总体准确性更高,但多层 / 阶段方法并不能提高准确性。
- 基于数据流的无标注数据噪声评估法官的二元分类算法
本文提出两个完全基于代数的评估算法来处理嘈杂的二元分类器的未标记数据流,第一个基于多数投票,第二个是本文主要贡献,保证正确性。
- SWAMP: 迭代幅值削减的多粒子稀疏权重平均
本文提出一种基于迭代幅值修剪 (Iterative Magnitude Pruning, IMP) 算法的改进方法 Sparse Weight Averaging with Multiple Particles (SWAMP),通过同时训练 - 差分隐私场景内学习
通过建立嘈杂一致性来实现隐私推理,DP-ICL 提出了一个方法,用于使大型语言模型适应新任务同时保持隐私保证,通过在一系列范例上建立嘈杂共识,DP-ICL 在四个基准测试中获得了与非私有 ICL 相当的性能 (<2% 降级)。
- 使用瓶颈变压器进行阿尔茨海默病的早期检测
本研究使用一组自注意力瓶颈变换器与成像质量感知极小化器的集成方法,基于结构性磁共振成像技术早期检测阿尔茨海默症,检验性能指标包括准确率、精准率、召回率、F1 得分和曲线下面积(ROC-AUC)。
- 探究集成方法用于检测深度伪造人脸操纵
本文讲述了人工智能 (AI) 技术支持的合成媒体 - 深度伪造技术 (deepfakes),由此带来了令人兴奋的新应用,但也产生了对我们越来越数字化的世界的严重威胁。为了缓解这些威胁,研究人员尝试提出新的深度学习技术来检测 deepfake - CVPR基于集成的黑盒攻击密集预测
在本文中,我们提出了一种针对稠密预测模型(例如对象检测器和分割器)的对抗攻击方法和模型集成。我们的模型集成方法通过适当的模型权重归一化和根据受害者模型的加权调整产生更有效的攻击。我们还表明,我们的方法在对象检测和分割方面胜过了现有的黑盒攻击 - 实用知识蒸馏:使用 DNNs 击败 DNNs
该研究探索了用于表格数据集的数据处理方法,包括数据压缩、数据去噪和优化集成方法等,结果证明这些方法可以改进梯度提升模型和基于 DNN 架构的模型,并且在数据规模越小的情况下 DNN 模型表现越优越。
- ACL使用门控融合方法提高自然语言处理模型升级的预测向后兼容性
本文提出了一种名为 “Gated Fusion” 的新方法,它通过学习在旧模型和新模型之间混合预测来促进向后兼容的模型升级,实验结果表明,该方法平均降低了 62% 的回归错误,比最强基线平均提高了 25%。
- EMNLPUniHD 参加 TSAR-2022 共享任务:词汇简化只需计算能力吗?
使用基于 GPT-3 生成的简单流水线,在少量训练实例的情况下,通过几种不同的提示模板获得了最佳表现,可以实现对英语以外语言的简化,方法适用于西班牙语和葡萄牙语,并讨论了提示的特点和未来工作的影响。
- BJTU-WeChat 的 WMT22 聊天翻译任务系统
这篇论文介绍了北京交通大学和微信 AI 针对英德翻译任务提交 WMT'22 的联合研究,使用 Transformer 及其多种变体,并利用预训练和微调范式来提高翻译效果,并采用 speaker-aware 等效果,最终通过 boosted - ECCV跨领域集成蒸馏用于领域泛化
本文提出了一种名为 XDED 的跨域集合蒸馏方法,通过学习域不变特征并鼓励模型收敛于平坦极小值来提高泛化能力,同时提出了解决任意目标域中样式连贯性的去风格化方法。该方法在交叉领域图像分类、跨数据集的 person re-ID 和语义分割中极 - 通过进化多目标集合学习减少不公平
本文提出一种基于多目标进化学习框架的方法,用于优化机器学习模型的准确性和多个公平度量,并构建集合以平衡不同度量,并通过实验结果证明与其他消除不公平的方法相比,我们的算法能够为决策者提供更好的准确性和多个公平度量之间的权衡。
- 阿里巴巴 - 翻译 2022 WMT 质量评估共享任务中国提交
本研究使用 UniTE 框架,通过预训练语言模型的三种输入格式进行训练,并采用数据修剪和评分规范化策略来减小预训练和微调之间的差距。使用了过去多年的 WMT 比赛的 Direct Assessment 和 Multidimensional - 利用模型仓库 ZooD 实现超出分布常规化
本文提出了一种针对预训练模型的评估和组合范式,其中采用特征选择方法排名预训练模型,并将排名最高的模型聚合为目标任务的模型,最终在 35 种模型上展示了该方法的效果。
- ECCVGoogle 通用图像嵌入挑战赛第一名解决方案
本文提出的方法在 Google Universal Images Embedding 竞赛中获得了第一名,并基于进行训练和微调的新方法,更好的集成模型池中的模型,高分辨率和重叠拼贴的微调之间潜在的权衡,以及适用于动态边际的潜在因素等多个方面 - 使用核平均池化学习鲁棒的核集成
我们引入了一种新的神经网络构建模块,Kernel Average Pool (KAP),在长时间以来用于降低模型预测方差的模型集成和伪集成技术的基础上,提高了神经网络对于输入扰动的鲁棒性,并通过实验证明它能够与对抗训练的网络处于同一水平对抗 - 基于遗传编程的进化深度学习用于数据高效图像分类
本文提出了一种基于遗传编程的演化深度学习方法,可以自动演化可变长度模型,同时构建有效和多样化的 ensemble 用于图像分类,具有优越的性能和解释性。
- 使用多个 BERT 模型在推特中对自报家庭暴力进行分类
该论文介绍了我们在 SMM4H 2022 共享任务中对 Twitter 上的自我报告的亲密伴侣暴力进行分类的提交。该系统是由五个 RoBERTa 模型的集成组成,并通过其在验证数据集上的 F1 分数进行加权。这个系统的效果比基线提高了 13 - 动量对抗蒸馏:数据无关蒸馏中处理大分布偏移
本文提出一种名为 Momentum Adversarial Distillation (MAD) 的方法,使用演员生成器和 EMA(Exponential Moving Average)生成器的合成样本对学生进行培训,通过保持 EMA 生成