基于多图表示学习框架的城市区域剖析
通过多视图表示学习,我们提出了一种区域化多视图表示学习(ROMER)方法,用于捕捉多视图依赖关系并学习表达性强的城市区域表示。我们的模型关注于从多源城市数据中学习城市区域表示,通过捕捉流动模式、兴趣点语义和签到动态等多视图相关性,采用全局图注意力网络学习图中任意两个顶点的相似度,并进一步提出了一个两阶段融合模块来综合考虑和共享多视图嵌入的特征。对真实世界数据集上的两个下游任务进行的大量实验证明,我们的模型性能优于现有方法,改进了最高达 17%。
Jul, 2023
本文提出了一种无监督的 Urban2Vec 多模态框架,利用街景图像和兴趣点数据来学习社区嵌入,使得该模型在下游预测任务中取得了比基线模型更好的性能,并在三个美国大都市地区的广泛实验中展现了模型的可解释性、泛化能力和在社区相似性分析中的价值。
Jan, 2020
本文提出了一种名为多图融合网络(MGFN)的模型,通过人类移动数据的地理位置相似性融合模块,将人类移动数据的多种模式嵌入到该模型中,这有助于进行交叉领域的预测任务,如犯罪预测,并在实际城市数据集上进行了广泛的实验,结果表明,MGFN 模型优于现有技术方法,最大提高了 12.35%。
Jan, 2022
本文提出了一种利用多模态数据学习城市区域表示的多视图对比预测模型(ReCP),该模型利用兴趣点和人类流动数据中的多个信息视图,通过内视图学习模块和相互视图学习模块实现对城市区域的一致性和连贯性表示,实验证明该模型在城市区域表征学习中明显优于现有基线方法。
Dec, 2023
基于自监督图协作过滤模型的城市区域嵌入,通过 GCNs 和多头注意力以及空间扰动增强和对抗训练,优化了区域嵌入的语义表示,实验结果表明该模型优于现有方法。
Feb, 2024
该研究提出了一个名为 “region2vec” 的无监督的基于 GCN 的社区检测方法,通过生成区域节点嵌入并应用聚类算法检测出具有相似嵌入和空间邻接的社区,以平衡属性相似性与空间相互作用在社区内的表现。实验结果表明该方法在属性和空间上均能得到良好的性能表现。
Oct, 2022
提出了一种名为 HAFusion 的新型模型,通过融合不同区域特征的嵌入来学习区域之间和不同类型区域特征之间的高阶相关性,实现了对城市区域表征的学习, 在三种不同的预测任务中,HAFusion 模型优于现有方法,利用学习得到的区域嵌入可以使预测准确率提高至多 31%。
Dec, 2023
本文提出了一种基于 OpenStreetMap 道路网络的微区域嵌入生成方法,并使用 H3 空间索引进行可重现和可扩展的表示学习,获得了检测地图六边形在其中包含的道路网络相似度的向量表示,并且通过堆叠聚类方法、得出了嵌入的高级分类方法,这将有助于解决基于基础设施的预测任务,特别是在空间变量方面。
Apr, 2023
提出了一个名为 Space2Vec 的表示学习模型,用于将地点的绝对位置和空间关系进行编码,并在地理数据和图像分类两个任务上得到了比径向基函数和多层前馈神经网络等传统机器学习方法更好的效果,其特点是具有多尺度表示能力。
Feb, 2020
本研究提出了一种名为 Graph2vec 的神经嵌入框架,用于学习任意大小的图的数据驱动分布式表示。该模型可以应用于图分类、图聚类等下游任务,并取得了显著的性能提升。
Jul, 2017