- 竞争产品下的社交网络病毒营销
在一个定向网络中,通过开发新颖的证明技术,我们提供了一个有着最佳可能近似保证的多项式时间近似算法,同时利用目标函数的单调性和子模性以及蒙特卡洛方法破解了计算问题的艰难之处,并在各种真实和合成网络上的实验中证明了我们提出的算法胜过其他算法。此 - 输入凸 LSTM: 一种基于凸优化的快速 Lyapunov 模型预测控制方法
该研究基于输入凸神经网络(ICNN),提出了一种用于基于 Lyapunov 的 MPC 的新型输入凸 LSTM,旨在减少收敛时间、缓解梯度消失问题并确保闭环稳定性。模拟非线性化学反应器实验结果显示,相对于基准普通循环神经网络、普通 LSTM - 能源感知的联邦学习与分布式用户抽样和多通道 ALOHA
将能量收集设备集成到分布式学习网络中,采用多信道 ALOHA 方法,确保低能量中断率和未来任务的成功执行,并通过数值结果证明了该方法的有效性
- 几乎没有通信的分布式 TD (0)
本文提出了一种新的分布式时间差异学习方法,该方法采用 “一次性平均” 策略,在分布式过程结束时平均结果,证明了并行优化对于时间差异方法收敛时间的提升。
- 离线强化学习中的 Q-Ensemble 方法:不是扩大模型规模而是扩大训练批次
本研究在深度离线强化学习方法中探讨了大批量优化的应用,提出采用适当的学习率调整和小批量缩放的方法,可以明显地加快模型训练速度,从而在控制 Q-ensemble 数量、强化对分布外行为的惩罚力度和提高收敛速度等方面产生了积极的效应。
- 无线量化联邦学习:一种联合计算和通信设计
本文旨在通过在上传之前对本地模型参数进行量化,最小化联邦学习的总收敛时间,以保证在所有全局轮次中的最小收敛时间。我们利用随机量化对 FL 算法的收敛性进行了收敛分析,同时综合优化了计算,通讯资源和量化比特数,以保证在所有全局轮次中的最小收敛 - 使用强化学习加速二次优化
使用强化学习 RLQP 策略自动调整参数,加速求解二次优化问题,与现有算法相比,RLQP 能显著提高性能并普适适用于不同应用场景。
- MM关于不完美 CSI 下无线网络联邦学习的收敛时间
本文提出了一种训练过程,利用频道统计信息作为偏差来减小联邦机器学习模型的收敛时间,并通过数值实验证明可以通过忽略不能维持最小预定传输速率的客户端的模型更新来减少训练时间,同时研究参与训练的客户端数量与模型精度之间的权衡关系。
- 自监督预训练提升自监督预训练效果
本文研究自监督预训练的方法,提出了一种名为 HPT 的 Hierarchical PreTraining 方法,通过在现有预训练模型的基础上初始化预训练过程,加快了模型的收敛时间并提高了准确性,同时还增强了自监督预训练对图像增强策略和预训练 - MM无线网络联邦学习的收敛时间优化
本研究旨在解决联邦学习在无线网络中的收敛速度问题,通过提出一种概率用户选择方案以及利用人工神经网络来估计未被分配资源块的用户的局部模型,从而在优化联邦学习性能的基础上最小化收敛时间。
- 神经自动机器学习的迁移学习
使用迁移学习方法减少神经自动机器学习的计算成本,在语言和图像分类任务中,Transfer Neural AutoML 在单任务训练收敛时间上节省了超过一个数量级。
- 时变约束在线凸优化
本文研究了具有时间变化的约束条件的在线凸优化问题,并提出了一种算法,其收敛性具有一定的时间复杂度,并且可以在没有先验知识的情况下达到无偏的最优解。
- 固定图上线性时间平均一致性及对去中心化优化和多智能体控制的影响
提出了一种完全分布式的平均一致性问题协议,收敛时间与节点总数呈线性比例,在多智能体控制、无法区分的凸函数的平均最小化等方面得到了应用。