集成内部分类器的提前退出
本文提出了一种基于样本加权的训练策略,用于桥接训练与测试时 Early exiting 行为的差距,通过联合优化权重预测网络和网络主干模型,在训练期间模拟其在推理期间的自适应行为,从而提高分类准确度和推理效率的权衡。
Sep, 2022
本文探讨了一种新的问题 —— 查询级别早期退出,旨在决定提前停止计算排名集合的收益性。实验结果表明,查询级别早期退出可以显著提高排名质量,并提高排名速度。
Apr, 2020
本研究提出了一种基于多目标学习的多出口深度神经网络推理框架 EENet,以优化在给定推理预算下的早期退出策略。 EENet 早期退出调度程序优化测试样本分配到不同退出,同时选择退出效用阈值,以满足给定的推理预算,同时最大化性能指标。与现有代表性早期退出技术相比,EENet 可以显着提高性能。
Jan, 2023
本文研究了将 Deep Ensembles 方法扩展到与不确定性评估相关的任务,提出了一种在接近二元决策边界的窗口内传递样本以实现早期退出的新方法,并发现级联 / 集成模型在 OOD 数据上比模型扩展更可靠。
Mar, 2023
本研究提出了一种名为 EERO 的新方法,将早期退出的问题转化为使用具有拒绝选项的多个分类器的问题,以更好地选择每个实例的退出头。实验证明,该方法不仅有效管理预算分配,而且在超思考场景中提高了准确性。
Feb, 2024
ConsistentEE 是一种早期退出方法,使用强化学习将退出过程形式化,通过添加策略网络来决定实例是否退出或继续,并利用一个记忆层来衡量实例的难度,从而提高加速和准确性。在自然语言理解和生成任务中,实验证明我们的方法优于其他基线模型。
Dec, 2023
本文提出了一种早期预测机制 'Exit Predictor',通过引导某些明显 “困难” 的数据样本绕过早期出口的计算,从而降低设备边缘混合推理系统中早期退出网络的设备计算负担。同时,还考虑了通信带宽的变化,在延迟感知的边缘推理中通过几个简单的回归模型来调整 Exit Predictor 的预测阈值和早期退出网络的置信度阈值,以适应不同带宽条件下推理的需求。实验结果表明,Exit Predictor 对于早期退出网络在准确性和设备计算负担之间取得更好的折衷效果。与基线方法相比,在不同带宽条件下,提出的延迟感知的边缘推理方法具有更高的推理准确性。
Jun, 2022
通过使用早期退出结构,我们研究了用于大词汇语音识别的动态模型,这些模型可以根据可用资源和识别性能自动调整其计算成本。与以前的工作不同的是,我们不仅使用预训练的骨干网络,还使用早期退出结构从头开始训练模型。通过在公共数据集上的实验证明,与使用较少编码器层或使用预训练模型相比,从头开始的早期退出结构不仅保持了性能水平,还提高了任务准确性。此外,我们还研究了一种基于后验概率的退出选择策略,作为基于帧熵的替代方案。
Sep, 2023
本文介绍了一个用于序列标记任务的提前退出机制,可以加速预训练模型的推断速度,同时通过基于窗口的判别标准以及自我采样微调等手段进一步降低了计算成本,并在三个常见序列标注任务上取得了较好的结果。
May, 2021
"UEE-UCB" 是一种基于 Upper Confidence Bound (UCB) 算法的多出口深度神经网络 (DNNs) 优化方法,利用 bandit 理论来识别多出口 DNNs 中的最优退出点,并能够适应性地学习特定领域的最优退出点。
Sep, 2022