- 稠密视觉 Transformer 的选择性特征适配器
本文提出了一种有效的方法,即选择性特征适配器(SFA),以解决精细调整预训练变压器模型中庞大的参数的成本 / 存储问题,并在各种密集任务中实现了最先进的性能,比其他适配器模块更出色。
- 激励预算有限众包感知的海量未知工作者:从离线和在线的角度
通过在上下文空间中进行勘探 - 利用权衡的创新分割方法,我们提出了离线和在线版本的基于上下文感知的组合多臂赌博机激励机制,以在有限的预算下有效激励大规模未知的工作者,并通过严格的理论分析和实验验证了其有效性。
- FAIR: 频率感知的工业视觉异常检测图像恢复
利用频率偏差进行图像恢复,以解决正常重建保真度和异常重建区分性之间的权衡问题,提出了一种新的自监督图像恢复任务 —— 频率感知图像恢复(FAIR),在各种缺陷检测数据集上以更高的效率实现了最先进的性能。
- 提高样本外检测的三个因素
通过引入自我知识蒸馏损失、采样半难例离群数据和使用监督对比学习,我们的方法在分类准确性和离群检测性能之间取得平衡,同时提高了两个性能指标。
- 解释性人工智能(XAI)评估方法的新视角
要在可行性、领域特征和风险考虑等方面综合权衡,才能更好地协商可解释性和系统性能之间的平衡,并为未来研究和最佳实践提供基础。
- 重新审视解释型人工智能(XAI)中的性能 - 可解释性权衡
在需求工程领域中,可解释人工智能(XAI)在使 AI 支持系统与用户需求、社会期望和监管标准相一致方面的日益重要性已获得认可。简而言之,可解释性已经成为影响系统质量的重要非功能性要求。本文在批判性地研究所谓的权衡问题上提出了观点。我们认为最 - 公平机器学习的错误基础
该研究讨论了在自动化决策中公平性的概念和实现方式,并说明了当前的公平机器学习范式中存在的错误推理、误导性陈述和可疑做法,并探讨了在存在群体差异的任何数据设置中,统计上准确结果和群体相似结果之间的权衡存在,并对未来的相关领域提出了建议。
- ExCalibR: 推荐期望校准
本文提出了一种基于线性规划优化问题的方法来平衡推荐系统或搜索问题中多种类别需要协调的目标,通过学习一个双重随机矩阵来实现权衡与适应,最终实验结果表明该模型可以取得更好的平衡效果。
- CVPRSparsifiner:学习稀疏实例相关注意力以提高视觉 Transformer 的效率
本文提出了一种基于学习的、实例相关的注意力机制来加速 Vision Transformers 网络,其将自注意力操作限制在空间上邻近的一组 Token 上,并通过轻量级的连接性预测器模块评估 Token 之间的连接得分来解决由结构化注意力模 - 基于 Transformer 的边缘增强图像风格迁移
本研究介绍了一种新的基于转换器(transformer-based)方法和边缘损失(edge loss)的图像风格转换方法 STT,可以在保持较好的风格特征同时提升内容细节,避免产生过度渲染的模糊结果,并解决常见的内容泄漏问题。实验结果表明 - 边缘资源受限环境下通过分散数据集精髓进行联邦学习
介绍了一种新的联邦学习框架 FedD3,它通过利用本地数据集蒸馏来代替传统的学习方法显著减少通信量,仅在网络上集成分散的蒸馏数据集一次以形成最终模型,取得了比其他联邦学习框架显著的交流效益和平衡精度和通信成本之间的权衡的额外利益。
- EMNLP同声传译是否需要同时模型?
本文研究如何在同时翻译中平衡高翻译质量和低延迟之间的权衡,并探讨通过训练单个离线模型来解决多个同时翻译模型维护造成的高计算成本的问题。研究结果表明,离线模型实现了与同时训练模型相似或更好的翻译质量,并且具有更低的延迟和更高的可扩展性。
- FxP-QNet: 一种用于混合低精度 DNN 设计的训练后量化器,采用动态定点表示
本文提出一种新的深度神经网络固定点量化框架 (FxP-QNet),该框架可以在保证网络精度的前提下,根据网络对低精度的需求动态地设计不同精度的量化级别。在基准测试 (ImageNet) 中,模型的内存需求得到了 7.16 倍 - 10.36 - ACL高斯多头注意力机制用于机器翻译
本文提出了 Gaussian Multi-head Attention(GMA)模型,用于开发一种新的 SiMT 策略,并通过模拟对齐和翻译来实现对齐的学习,该方法在 En-Vi 和 De-En 任务中的实验表明,它在翻译和延迟之间的权衡上 - ICML基于池的批次主动学习中的快速速率
本文在 batch active learning 场景下,提出了一种解决 informativeness 和 diversity 之间权衡问题的算法,理论上可以在 pool-based active learning 中得到最优结果,并且 - 连续学习中泛化与遗忘的权衡形式化
通过动态规划的方法建立连续学习问题的模型,将忘记与泛化之间的权衡建模为一个双方顺序博弈,提出了平衡连续学习 (BCL) 算法,使得忘记和泛化之间达到度的平衡,实验证明 BCL 与最先进技术相比表现良好。
- ICCV通过归因排名保护实现通用混合精度量化
本文提出了一种可推广的混合精度量化方法,用于高效推理,利用网络归因排名保持一致性搜索混合量化策略,实现与现有混合精度网络相比具有较强的准确性和复杂度的竞争性性能,同时大大降低了搜索成本。
- IJCAI个性化联合学习与背景化泛化
本文提出了一种名为上下文化泛化(CG)的新概念,旨在为每个客户端提供更好地适合本地数据分布和更快模型收敛的细粒度上下文知识。作者还提出了 CGPFL 框架,在多个现实世界的数据集上进行了实验,证明了该方法在测试精度上显著优于最先进的方法。
- 关于扩散概率模型的快速采样
FastDPM 是一种用于快速抽样扩散概率模型的统一框架,通过在不同领域、不同数据集上系统地研究该框架下的快速抽样方法,探讨了特定方法在不同数据领域、抽样速度与质量权衡以及条件信息的数量上的性能差异,并为从业者提供了选择方法的洞见和配方。
- 一次性全面对抗训练:在现场实现健壮性和准确性的权衡
本文提出了 Once-for-all Adversarial Training (OAT) 和 Once-for-all Adversarial Training and Slimming (OATS) 框架,可以在不重新训练模型的情况下,