- MM网络边缘联邦学习中通讯与学习的权衡
该研究旨在解决通信与学习之间的折衷问题。通过在有限资源的本地用户中应用网络修剪,通过推导非凸损失函数的收敛速度来量化网络修剪和数据包错误对学习性能的影响,提出了修剪控制和带宽分配的封闭式解决方案,以最小化 FL 延迟和 FL 性能的加权和。 - 理解 Grokking:表示学习有效理论的探究
通过微观分析和宏观相图描述学习性能,本研究发现,泛化是由结构化表示产生的,这些表示的训练动态和对训练集大小的依赖性可以在玩具环境中通过有效理论进行预测。同时,我们观察到四个学习阶段:理解、深度理解、记忆和混淆。此外,本研究还发现,表示学习仅 - 深度 Q 学习中行动泛化差距的表征
该研究研究了深度强化学习中离散行动空间中的行动泛化能力,发现 Deep Q-Networks 仍能以较小的行动泛化差异在简单领域中实现行动泛化
- 多智能体强化学习与通信调查
本文介绍了多个方面可以在设计和开发多智能体强化学习系统中扮演角色的通信,并提出了 Comm-MARL 系统分析、开发和比较的几个维度。
- 自主机器学习
提出了自主学习机器学习 (Self-directed Machine Learning, SDML) 概念和框架,介绍了一种基于自我意识、无需人类指导的学习方式,提高了学习任务、数据、模型、优化策略及评价指标的选择效率,并通过自我意识不断优 - IJCAI无元解释学习的高阶程序学习
通过引入 Higher-order definitions 的扩展 Learning From Failures 方法,可以提高归纳逻辑编程(ILP)系统的学习性能和准确性,并且无需人类指导,其理论框架可以保持现有基于子消去方法的 Soun - IJCAI从失败中学习的谓词创新
本文介绍了一种基于答案集编程的归纳逻辑编程系统――POPPl,用于解决谓词发明问题,实验证明谓词发明可以显著提高学习性能,POPPI 相对于其他归纳逻辑编程系统具有优越性能。
- MM联邦学习上行和下行通信的设计与分析
本文重点研究了有关物理层量化和传输方法在无线联邦学习中的设计和分析,并通过实验评估了 FL 定制上行和下行通信设计的巨大优势,其中包括 1 位量化(浮点基线带宽的 3.1%)在 MNIST 上实现了 99.8%的浮点基线准确度,代表着作者所 - 多任务学习中转移的测量与利用
本文分析了多任务学习的信息传递动态,并开发了可量化任务间信息转移的相似度度量方法,从而使得我们在宏观和微观层面上提出了两种方法来优化多任务学习性能,这些方法在三个监督式多任务学习基准和一个多任务强化学习范式上都有显著改进。
- 利用历史交互数据提高对话推荐系统
本文提出了一种基于预训练的方法,通过历史交互数据和会话数据整合两种基于项目和属性的偏好序列,使用有效的负样本生成器来提高学习性能,从而改进对话推荐系统 (CRS)。实验结果表明了这种基于预训练方法的有效性。
- 面向物联网的联邦学习与分割学习的端到端评估
本研究首次尝试在实际物联网环境中评估和比较联邦学习(FL)和分裂神经网络(SplitNN)的学习性能和设备实现开销,并考虑了各种数据集、模型结构、多个客户端和各种性能指标。通过实证评估 FL 和 SplitNN 在不同类型的数据分布下的学习 - 使得学习者 (更) 单调
提出了三种算法,使监督学习模型呈现更加单调的性能表现,其中算法 MT_HT 将 MNIST 数据集上的非单调决策控制在 1% 以下,并在误差率上保持与其他基线模型的竞争力。
- 基于脉冲的因果推理用于权值对齐
通过引入脉冲系统处理信息,使得反向传导和前向传输的神经突触权重不相同,解决了生物模型中学习时的权重传递问题,提高了学习表现。
- IJCAIPlaygol:通过玩乐学习编程
通过游戏引导的方式,学习者自发地创造任务,探索并保存其解决方案到背景知识,以实现自我的程序归纳,最终帮助解决使用者提供的任务,并可显著提高学习性能。
- 多目标进化联邦学习
此论文使用多目标进化算法优化神经网络模型的结构,以同时减少通信成本和全局模型测试误差,提高联邦学习的学习性能和效率。
- 将人类从学习应用中剔除:自动化机器学习综述
本文介绍了 AutoML 问题的定义和解决方案,项目分类和现有工作的审查,并提出了一个 AutoML 框架以减少对人类专家的需求和提高学习性能。
- 多任务学习中抑制性突触的最佳百分比
研究了神经网络中更多布尔规则的并行学习,发现忘却和学习的交替造成了多任务学习,同时发现 30%的抑制性突触可以优化整体性能,并支持信息传递的复杂骨架,是最大化学习表现的百分比,因为它确保表现所必需的网络兴奋性和所需的变异性,同时限制了资源的 - 尝试的事情做得不太好:强化学习中的指示性表述
研究表明,使用 deictic representation 来代替 propositional representation 在强化学习方面可能是一种可行的选择,但本文的实验证明,这种方法在简单的 blocks-world domain