研究了 Deep Set 学习的核心组成部分:聚合函数;提出并检查了替代常用聚合函数的方法,包括可学习的循环聚合函数,并在实验中发现 Deep Set 网络对聚合函数的选择非常敏感:在改善性能的同时,我们发现可学习的聚合函数可以降低超参数的敏感度,并更好地推广到分布外的输入大小。
Mar, 2019
研究了使用深度格网网络模型进行变长置换不变的特征向量聚合来预测标签,并添加输入和输出之间的单调性约束以提高可解释性。同时使用所提出的集合函数来从稀疏分类特征中自动化工程密集且可解释的特征,称为语义特征引擎。在实际数据上的实验表明,其准确性类似于深集合或深度神经网络,并且更易于调试和理解。
May, 2018
本文研究函数在集合中的表示,借助于集合中求和的潜在空间来实现置换不变性。研究表明,基于离散映射实现的模型具有高度间断性,只有通过连续映射(如神经网络或高斯过程)实现的模型,才能对潜在空间的维度施加约束。为实现输入集合的通用函数表示,必须使潜在维度至少为输入元素的最大数量。
Jan, 2019
针对在线学习推荐的一种变体聚合算法,该算法基于广义聚合函数,具有与 AA 相似的理论性质,如贝叶斯更新和对广义和损失的时间无关边界。
Jun, 2024
本文提出一种新的前馈神经模板 ——AttSets,以及一个专门的 FASet 训练算法,用于多视图的 3D 重建。AttSets 模块是置换不变的,计算效率高且易于实现,而 FASet 算法使基于 AttSets 的网络非常稳健,并且在多个公共数据集上确切地证明了 AttSets 与 FASet 算法的优越性。
Aug, 2018
该研究提出了一种名为 FedFish 的聚合算法,通过在函数空间中计算 Fisher 信息的估计,将客户端学习到的函数本地逼近进行聚合,并在大规模跨设备基准测试中验证了其性能优于 FedAvg,尤其在本地训练迭代次数增加时。
Nov, 2023
该研究对联邦学习框架下聚合策略进行了全面的数学收敛分析,并通过与 FedAvg 进行分类任务的比较来评估其性能,得出了新的聚合算法,该算法可以通过区分客户端贡献的价值来修改其模型架构。
May, 2022
研究介绍了深度集模型的理论分析,发现只有当模型的潜空间具备足够高维度时,其可以作为连续集函数的通用逼近器。同时指出深度集模型可以被看作是 Janossy 池化范例的最有效体现,阐述了其在集合学习中的广泛应用以及问题。
Jul, 2021
Fishnets 是一种在贝叶斯推断和图汇聚中学习信息最优嵌入的集聚策略,它可以扩展到任意数量的数据对象,对数据分布的变化具有鲁棒性,饱和贝叶斯信息内容,可以在图神经网络中作为聚合方案使用,从而实现超越现有基准的 ogbn-protein 数据性能最佳化。
Oct, 2023
本文研究了聚合函数的区分能力,特别是在受限制的情况下,研究表明标准的求和和一种新的基于直方图的函数具有区分固定数量输入的能力。在此基础上,设计了一个图神经网络,旨在学习判别性图表示以实现泛化;实证评估证明了这些选择对结构图分类问题具有益处。
May, 2019