多任务协同智能的比特分配
本文研究了多流协同智能系统中特征编码的位分配问题,并提供了单任务系统和多任务系统的闭式位分配解,以及二流 k 任务系统全帕累托集的解析特征和三流 2 任务系统帕累托集的界限。
Sep, 2020
在此研究中,作者介绍了一种新的损失函数,旨在促进 feature 的可压缩性,而不会牺牲多个任务的系统性能,作者称之为压缩友好的丢失函数,实验结果显示,使用这种丢失函数,可以实现约 20%的比特率降低。
Feb, 2019
本文提出了一种新的协作智能友好型架构,通过将移动设备上计算的中间特征卸载到云端以降低需要发送到云端的数据量,使得在 ResNet-50 模型上,相比现有的云端计算方法,端到端延迟和移动能耗分别平均提高了 53 倍和 68 倍,而精度损失不到 2%。
Feb, 2019
研究合作智能的新范式,提出了一种简单有效的接近无损的深度特征压缩器,在移动和云端之间分配网络以最小化系统的总能耗和 / 或延迟,同时探讨深度特征数据与自然图像数据之间的差异,并建议从压缩的深层特征中重建输入图像的方法,以补充深度模型所执行的推断。
Apr, 2018
本论文探讨了在移动设备和云端之间进行特征数据通讯的 “协作智能” 范式,研究了损失压缩特征数据对协作物体检测准确性的影响,并提出了一种策略来提高其在损失特征压缩下的准确性。实验结果表明,采用该策略,通信开销可以降低 70%而不会牺牲准确性。
Feb, 2018
本文介绍了一种新方法 —— 不等误差保护(ULP),通过特征重要性估算器来选择性应用前向纠错(FEC)码以保护重要的数据包以提高协同智能系统的鲁棒性和可靠性。
Jul, 2023
本研究介绍了一种轻量级的压缩技术,用于在边缘设备上进行代码的分割,仅针对深度神经网络中的激活,而且不需要任何重新训练。当应用于流行的对象检测和分类深度神经网络时,能够将 32 位浮点激活压缩到 0.6 至 0.8 位,同时保持精度损失不到 1%。
May, 2021
本文提出了一种基于任务导向的通信方案以减少多设备合作边缘推理中的通信开销与延迟,并通过信息瓶颈原理提取与任务相关的特征并采用分布式信息瓶颈框架来对分散的特征进行编码。通过对多个设备传输的信息进行冗余性分析并采用可变近似来解决计算的复杂性问题,该方案比基线方法更好地平衡了传输效率与推理能力的关系。
Sep, 2021
我们提出了一种专门为机器任务而设计的可扩展点云数据编解码器,基于 PointNet++ 的架构,并在 ModelNet40 数据集上进行了测试,显示了与之前的非专用编解码器相比显著的改进。
Feb, 2024