通过随机梯度下降方法,本论文针对高维数据提出了一种高效的高维混合因子分析(MFA)模型训练方法,并利用 MFA 应用于图像数据集进行样本生成和异常检测。
Aug, 2023
本篇论文提出了一种新方法 FA-VAE,以克服深度生成模型的解释性,灵活性和模块化方面的局限性,并提高了数据共享和迁移学习的性能。
Jul, 2022
通过打开 Deep Learning 在投资组合优化中的黑匣子,我们证明一个足够宽且任意深的神经网络(DNN)在最大化随机折现因子(SDF)的夏普比率时等效于一个大型因子模型(LFM):一个使用许多非线性特征的线性因子定价模型。这些特征的性质取决于 DNN 的架构,可以明确地进行处理。这使得我们首次能够以闭合形式推导出端到端训练的基于 DNN 的 SDF。我们通过实证评估了 LFM,并展示了各种架构选择如何影响 SDF 的性能。我们记录了深度复杂性的优势:有足够的数据量时,DNN-SDF 在深度神经网络(NN depth)中的外样本表现随着深度的增加而增强,在约 100 个隐藏层的巨大深度饱和。
Jan, 2024
本文提出了一种用于稀疏数据预测的新型模型 Neural Factorization Machine(NFM),将因子分解机(Factorization Machines,FM)中二阶特征交互的线性性与神经网络中高阶特征交互的非线性相结合,实验证明 NFM 在深度学习方法 Wide&Deep 和 DeepCross 的基础上,使用更浅的结构却提供更好的性能,在实际中更易于训练和调节。
Aug, 2017
本文扩展了专家集成模型,提出了深度专家集成模型,该模型利用多组门和专家实现了输入空间的多重化,同时保持了小型化规模,在 MNIST 数据集和语音单音素数据集上的实验结果表明,该模型能够自动发现局部化的位置相关专家和类别相关专家,并有效地使用所有专家组合。
Dec, 2013
本研究介绍了一种用于学习任意结构的离散因子分析模型的半监督学习算法,该算法假定每个潜在变量都有 “锚”,即仅有该潜在变量作为其父变量的观测变量。在给定这些锚的情况下,可以恢复隐变量的矩,并利用这些矩来学习完整的模型。同时,我们还介绍了一种提高矩方法算法健壮性的新技术,即通过优化边际多面体或其松弛度。我们在 Stack Overflow 网站提问的标签预测和急诊科医学诊断两个实际任务中对我们的算法进行了评估。
Nov, 2015
本文提出了一种新的深度多任务表示学习框架,通过将矩阵分解技术泛化为张量分解,实现了深度网络中的端到端知识共享的自动学习,而不需要用户定义的多任务共享策略。实验证明了我们的深度多任务表示学习方法在提高准确性和减少设计选择方面的有效性。
May, 2016
本文提出了一种基于图的潜因子分析模型,将隐藏的高阶交互与重复的低秩嵌入相结合,从而提高了对高维稀疏矩阵的表示学习能力,并在三个真实数据集上验证了其在预测丢失数据方面的优越性。
Apr, 2022
提出了一个名为 MF-DAKT 的多因素感知双关注模型,其中利用双关注机制丰富问题表述并利用多个因素来建模学生的知识状态,以预测学生的表现。实验结果表明,该模型优于现有的知识追踪方法。
Aug, 2021
本文研究基于深度神经网络的非线性因子分析中的参数估计问题,探讨了大规模、稀疏、高维数据中的欠拟合问题,提出了受随机变分推断启发的迭代优化方法及改进的稀疏数据表示方法,实现了在文本计数数据集上的最新结果和在 Top-N 推荐任务上的优异表现。
Oct, 2017