Aug, 2023

使用 T - 批处理进行动态网络表示学习时选择损失函数的影响

TL;DR表示学习方法在将离散网络结构转化为连续领域方面为机器学习提供了革命性进展,但是动态网络在时间上的演变带来了新的挑战。我们通过数学分析提出了两种新的损失函数来克服 t-batching 中训练损失函数的局限性,并在合成和真实动态网络上进行了广泛评估,结果一致显示出比原始损失函数更优越的性能,尤其在具有多样的用户交互历史的真实网络中,所提出的损失函数在 Mean Reciprocal Rank(MRR)上实现了超过 26.9% 的增强和 Recall@10 上的超过 11.8% 的改善,这些发现凸显了动态网络建模中所提出的损失函数的功效。