SeFNet:用语义特征网络连接表格数据集
本研究采用深度学习方法,通过利用表格的上下文语义特征和知识库查询算法,实现了对没有元数据的表格的列类型预测,不仅在单独的表格集上表现良好,转移学习到其他表格集也有良好的性能。
May, 2019
该论文提出了一种基于字符级卷积神经网络的转移学习方法,用于语意分类表格数据,并开发了一个名为 SIMON 的工具包,它可以在自然语言处理中进行分类、垃圾邮件分类和社交媒体年龄预测等任务。
Jan, 2019
地址 “临时表检索” 的问题,提出了一种通过语义匹配查询和表格的方法,通过在多个语义空间中表示查询和表格,并采用各种相似性度量将这些特征用于监督式学习模型中,针对维基百科表格集合进行了实验,并取得了显著和实质性的改进。
Feb, 2018
TableNet 是一种用于构建互联维基百科表的知识图谱的方法,在表间进行等价和子集关系对齐的同时具有较高的准确性和覆盖率。
Feb, 2019
该研究论文介绍了一种有效的数据抽样机制,通过基于文本信息而不经过计算密集型模型或其他密集预处理转换,将新数据点分类为语音识别难度桶。结果表明,使用该方法比随机预测提高了 93% 的 ASR 性能精确度,并对文本表示在语音模型中的影响提供了重要信息。此外,一系列的实验证明了使用 ASR 信息对模型进行细调的益处和挑战。与随机抽样相比,报告了 7% 的验证损失下降,针对高难度数据集的非局部聚合的 WER 降低了 7%,并且在数据集之间具有高语义相似性的局部聚合下,WER 降低了 1.8%。
Feb, 2024
通过实体识别和关键词提取获取会议的领域特征,并将其作为特征和会议信息输入到 BERT 网络中,使用孪生网络结构解决 BERT 的各向异性问题,最终使用余弦相似性计算两个会议之间的相似性。实验结果表明,在不同数据集上,SBFD 算法取得了良好的结果,并与对比算法相比,Spearman 相关系数有一定的提高。
Mar, 2022
本文介绍了我们在 2021 年 FinSim-3 共享任务中针对金融领域语义相似度学习的方法。我们提出了两种方法:在自定义语料库上预训练的 SRoBERTa 和结合 FastText 模型改善基线词嵌入方法的双重词 - 句嵌入模型。在平均准确度和平均排名两方面我们的系统均获得第二名,分别得分为 0.917 和 1.141。
Aug, 2021
提出了一种名为 TabularNet 的新型神经网络结构,采用 CNN 模型来进行表格数据的空间编码,并且利用基于 WordNet 树的图构建方法来进行单元格之间复杂的关系编码,结果表明该方法有效提高了表格分类任务的精度.
Jun, 2021
本文介绍了一种称为元语义学习 (Meta-SeL) 的方法,该方法利用两个输入的 3D 局部点(输入 3D 模型和部分分割标签),提供了一种时间和成本高效、精确的投影模型,用于许多 3D 识别任务。根据结果表明,Meta-SeL 在与其他复杂的最新研究的比较中,表现出了竞争性能。此外,Meta-SeL 对随机洗牌不变性具有弹性,也对平移和抖动噪声有较高的鲁棒性。
May, 2022
通过在稀疏的表格数据中利用拓扑约束网络表示结构,我们提出了一种新颖的深度学习架构,利用卷积提取空间信息,并通过网络拓扑的有限概念来确保数据导向、可解释性和可扩展性,在 18 个基准数据集上测试表明,我们的方法在这些具有挑战性的数据集上达到了最先进的性能。
Aug, 2023