基于知识蒸馏的多用户语义通信
该研究基于潜在扩散模型构建了一种语义交流系统,并通过三项改进,即异常值鲁棒编码器、轻量级单层潜在空间转换适配器和端到端一致性精炼策略,证明了该系统对异常值的稳健性、在未知分布数据传输中的适应能力以及保持高人类感知质量的实时信道去噪任务能力,优于现有的去噪方法。
Jun, 2024
提出了一种新颖的语义通信系统,该系统采用共享的知识库,并利用共享的知识库中的消息和相应知识来获取剩余信息,从而实现更少符号的传输,并且在语义性能方面没有降级。
Nov, 2023
本文提出了一种新的神经网络语义通信系统,包括语义编码网络和数据适应网络,通过传输学习中的域适应技术实现了针对动态数据环境下的任务不可知的图像传输,实验结果表明该方法在保持高性能的同时也能适应可观测数据集。
Apr, 2022
本研究提出了一种基于深度神经网络和迁移学习的语义通信系统,名为 MR_DeepSC,此系统解决了多用户情况下应用语义通信的问题,并在低信噪比条件下实现了最佳性能。
Sep, 2022
通过交互式通信过程扩展了知识蒸馏技术,帮助下游任务的学生有效地从预训练的基础模型中学习,并在基准数据集上进行实验证明我们的通信机制优于最先进的蒸馏技术。
Oct, 2023
针对 transformer-based pre-trained language models 在实际应用中过大且延迟高的问题,该研究提出一种基于 knowledge distillation 的压缩方法,并通过系统实验对比分析知识类型、匹配策略、模型大小等多方面,最终提供一套最佳实践指南。
Jun, 2022
在这篇文章中,我们提出了一个新的生成语义通信框架,针对多用户场景进行了优化,利用扩散模型在接收方填充丢失的信息,通过彻底的实验评估展示了这种创新性的扩散模型的能力和所提出框架的有效性,为基于 GenAI 的下一代通信发展指明了方向。
May, 2024
通过集成人工智能技术,本文介绍了以知识理解和处理为重点的语义通信(SemCom)在知识学习方面的应用,尤其关注知识图谱(KGs)的利用,提出了增强型 KGs 的 SemCom 系统,并探索了在不断演化的知识库中更有效地操作的潜在方法和与大型语言模型(LLMs)进行数据增强的可能性。广泛的数值结果表明,所提出的框架在 KG 增强的解码上具有卓越的性能并展示了其在不同场景下的多功能性。
Jan, 2024
本研究探讨了一种 Knowledge Distillation 的新方法,即从神经网络和词汇知识库中提取语言信息,以提供大规模模型的高效替代方案,并提出了两种基于多个 teacher networks 预测权重的技术以及一种用于词义消歧的方法,并发现使用本文中的词汇预训练方法可在不增加参数的情况下提高自然语言理解任务 (NLU) 的性能,同时在 Plagiarism Detection 方面也有了更好的表现。
Jan, 2023