- 使用隐式神经表示学习具有旋转和翻译不变性的表示
该文介绍了一种使用隐式神经表示和超网络获取图像的不变语义表示的方法,该方法可以在任意或随机旋转和平移的图像中获取方向不变的语义表示,并与 SCAN 结合,获得最新的无监督聚类结果。
- 使用抽象意义表示法进行翻译简化
本文探讨使用抽象意义表示(AMR)作为一种过渡语言,以降低机器翻译中的翻译语现象。结果表明,使用 AMR 可以降低翻译语的影响,与其他两种方法相比,其表现更佳。
- CVPR超越外观:人类中心视觉任务的语义可控自监督学习框架
本论文提出了一种自我监督学习框架 SOLIDER,该框架可以从海量未标注的人类图像中学习到一种通用的人类特征表示,并利用条件网络和语义控制器实现了不同比例语义信息的表示,并在人类视觉任务中表现出了优异的性能。
- 创建 Web 地理数据知识图谱
本文介绍了我们最近开发的方法,以解决地理数据在 Web 和机器学习应用中的数据真实性、缺乏地理和语义特性集成以及不完整表示等问题。
- RetroMAE v2:用于预训练检索定向语言模型的双工掩蔽自编码器
本文介绍了一种新的预训练方法 ——DupMAE,该方法可同时提高 [CLS] 和普通 token 的语境嵌入的语义表示能力,取得了在 MS MARCO 和 BEIR 基准测试中显著的改进效果。
- ECCVPointTree:具有松弛 k-d 树的鲁棒变换点云编码器
PointTree 是一个基于松弛 K-D 树,采用主成分分析作为分割规则的点云通用编码器,通过前向预对准进一步提高其鲁棒性,结合点描述符和点最大化操作达到优足以处理变形的点云数据的目标,在各种基准数据集上,其表现优于现有最先进方法。
- 视觉线索:跨越视觉和语言基础的 image 段落字幕生成
本文阐述了如何使用视觉线索(Visual Clues)桥接预训练的视觉基础模型和语言模型,无需任何额外的跨模态训练,从而可以获得图像的详细信息和语义表示,并通过定量和定性的度量评估了生成的描述的质量,结果表明该结构化语义表示方法具有有效性。
- MORE: 基于度量学习的开放领域关系抽取框架
MORE 利用深度度量学习从标注数据中获取丰富的监督信号,并直接驱动神经模型学习语义关系表示,提高开放域关系抽取 OpenRE 的效率和性能。
- SemEval2022 任务 1 中的 IRB-NLP:探索词语和它们的语义表示之间的关系
本篇论文研究了词与其描述或嵌入之间的关系,探索了定义建模和反向字典两个学习任务之间的关系,旨在探讨词语及其语义表示之间的关系,并在 CODWOE 数据集上展示了定义建模和反向字典任务系统的设计及实验结果。
- ACL利用注释规范化的预训练方法改进上下文表示
为了解决 BERT 模型在预训练和推理之间存在的差异,我们从单词概率分布的角度研究预训练和推理的上下文表示,并发现 BERT 在预训练中存在忽略上下文单词相似性的风险。通过引入辅助注释正则化器,我们提出了一个增强单词语义相似性的 GR-BE - CVPR基于场景文本的知识挖掘用于细粒度识别
提出了一种可进行场景文字图像语义挖掘、增强细粒度图像分类表示的端到端可训练网络,其通过三种模态:视觉特征提取、文本语义提取和相关背景知识相结合,利用 KnowBert 检索相关知识来进行语义表示,并在 Con-Text 和 Drink Bo - 通过文本块的语义分类检测套用文本
介绍了一种名为 SemText 的分层神经网络模型,它使用一种新颖的 HTML 标签、类名和文本块的语义表示来检测 HTML 模板,在三个已发表的新闻网页数据集上训练并微调,在 CleanEval 和 GoogleTrends-2017 中 - KESA:一种基于知识增强的情感分析方法
本研究提出了两种情感感知的辅助任务:情感词谜和条件情感预测,以更轻量的方式从情感知识中受益,并通过多种标签组合方法进行实验验证,结果表明该方法始终优于预训练模型并且在现有知识增强后训练的模型中具有增益效应。
- KDD面向方面的情感分类的领域级别的两两语义交互
提出了一个可以有效解决类别不平衡问题的 Plug-and-Play Pairwise Semantic Interaction(PSI)模块,通过对成对句子的语义向量进行学习,从而增强了句子之间的高级语义特征交互,证明在四个 ABSC 数据 - 利用阿尔茨海默病相关知识图谱,识别潜在的与 AD 相关的语义三元组以进行药物重用挖掘
本研究旨在构建一个知识图谱以研究阿尔茨海默病(AD)与化学物质、药物和膳食补充剂之间的关系,从而识别预防或延缓神经退行性进展的机会,结果表明我们的图形挖掘模型可以预测 AD 和其他实体之间的可靠新关系。
- CLIPort: 机器人操控的何时和何地路径
通过结合视觉操作中的语义理解与空间精度,使用基于语言的模仿学习代理 CLIPort,可在训练过程中不需要显式地表示对象姿态、实例分割、内存、符号状态或句法结构的情况下,有效地解决各种语言规定的桌面任务,具有数据效率和泛化能力。
- ACL通过对比学习和自编码器来改善基于梯度的文本分类对抗训练
本文提出了两种新的对抗训练方法:一种是在表示空间中缩小原始样本和其对抗样本的距离,同时扩大其与不同标记样本的距离;另一种是将模型迫使在对抗性表示下重构原始样本,实验证明这两种方法在各种文本分类数据集上优于强基线。分析实验证明,我们的方法可以 - EMNLP知识增强微调:更好地处理对话生成中的未知实体
本篇论文提出了通过外部知识库训练对话系统,解决无法预测未知实体的问题,具有良好的实验效果。
- MM具有语境推理功能的语义原生通信
通过引入上下文推理,本文提出了一种基于语义的随机模型,用于更有效地传递信息,同时证明系统二的可靠性能够随着意义概念数量的增加而提高,并通过期望语义表示位长度来衡量提取出的有效语义,实验结果表明该模型显著缩短语义表示长度且不会影响通信可靠性。
- ACL大规模零样本学习的文档表示重访
本文讨论了使用语义表达来识别未见过的物体,提出了一种基于文档的语义表示方法,通过半自动机制提取并加权了文档中包含的可视信息,形成了语义表示,相比现有方法在 ImageNet 数据集上表现更佳。