May, 2023
基于层次信息的地址匹配
Address Matching Based On Hierarchical Information
Chengxian Zhang, Jintao Tang, Ting Wang, Shasha Li
TL;DR本文提出了一种基于深度学习的层次化信息利用方法,可以更好地解决不规则地址匹配的问题并更加关注地址中的特殊部分,实验结果表明,该方法可以将现有方法的准确率提高 3.2%。
Abstract
There is evidence that address matching plays a crucial role in many areas
such as express delivery, online shopping and so on. Address has a hierarchical
structure, in contrast to unstructured texts, which can contribute valuable
information for →
发现论文,激发创造
自然语言处理中语义地址匹配的改进
该研究论文介绍了语义地址匹配技术,通过使用 OCR 从发票中提取地址并创建地址数据池,然后使用 BM-25 算法对最佳匹配条目进行评分,最后通过 BERT 进行相似查询以获得最佳结果,研究结果表明该方法显著提高了现有技术的准确性和性能。
Apr, 2024
电商地址分类的深度上下文嵌入
研究了如何使用自然语言处理和 RoBERTa 模型来理解发展中国家(例如印度)中电商客户的运输地址,该方法结合了诸如编辑距离和语音算法之类的预处理步骤,并最终使用 RoBERTa 模型进行分类。
Jul, 2020
使用 Siamese Transformer Networks 改善地址匹配
采用深度学习的方法,设计出一种模型,用于提高邮地址匹配的效率。测试结果表明,模型在准确性和速度方面都表现良好,对于解决分配过程中的问题具有实际价值。
Jul, 2023
利用深度学习为发展中国家生成街道地址
本研究提出了一种基于深度学习和图像区分的地址生成方案,该方案可以通过从卫星图像中提取道路信息、划分社区、标记区域与地址单位等步骤,映射全球道路,并与当前工业和开源地址编码方案进行了比较。
Nov, 2018
用 Transformers 打击犯罪:在支付数据中进行地址解析方法的经验分析
在金融行业中,从自由文本消息属性中提取街道、邮政编码或国家等字段是解析地址的关键需求,本文利用 Transformer 模型和生成型大语言模型探索应对海量交易数据的性能,并展示训练鲁棒模型处理实际世界的嘈杂交易数据的重要性。结果表明,良好调整的 Transformer 模型通过提前停止显著优于其他方法,而生成型大语言模型则展现出强大的零 - shot 性能,值得进一步研究。
Apr, 2024