关键词semantic textual similarity
搜索结果 - 58
- Pcc-tuning: 打破语义文本相似性中的对比学习瓶颈
该论文通过对语义文本相似度进行深入分析,得出使用对比学习的斯皮尔曼相关系数上限为 87.5,并提出了一种创新方法 Pcc-tuning,通过使用皮尔逊相关系数作为损失函数来改进模型性能,实验证明 Pcc-tuning 大大超越了之前的最新策 - 推进语义文本相似度建模:具有翻译 ReLU 和平滑 K2 损失的回归框架
该论文介绍了一种创新的回归框架,并提出了两种简单而有效的损失函数:翻译 ReLU 和平滑的 K2 损失。实验分析表明,我们的方法在七个已建立的语义文本相似性基准中取得了令人信服的性能,尤其是在补充任务特定的训练数据的情况下。
- ACL基于语言条件的语义文本相似度
通过重新注释 C-STS 验证集,并经过全面的数据集分析,我们改进了 C-STS 任务,利用模型理解 QA 任务设置中的条件,从而生成答案,并提出了一种自动错误识别流水线,能够以 80% 以上的 F1 得分识别 C-STS 数据中的注释错误 - RAR-b: 推理作为检索的基准
通过将推理任务转换为检索任务,我们发现,即使没有针对推理级别的语言理解进行专门训练,目前最先进的检索模型在协助 LLMs 的角色上可能仍然远离胜任,特别是在推理密集型任务中。然而,最近基于解码器的嵌入模型在弥合这一差距方面表现出巨大潜力,突 - COLING跨语言转移还是机器翻译?关于单语义文本相似性的数据增强
通过比较两种数据技术(跨语言转移和机器翻译),研究发现,使用英文数据训练的跨语言转移和使用英文数据转换为伪非英文训练数据的机器翻译在日语和韩语的单语 STS 上表现相当。此外,研究还发现 Wikipedia 领域在这些语言上优于 NLI 领 - 8192 个标记双语文本嵌入的多任务对比学习
该研究介绍了一套新颖的双语文本嵌入模型,能够处理长度长达 8192 个标记的文本输入,支持英语和目标语言,适用于文本检索、聚类和语义文本相似性计算等自然语言处理任务。通过专注于双语模型和引入独特的多任务学习目标,研究提高了 STS 任务模型 - 像素句子表示学习
通过视觉表征学习方法及无监督学习,我们提出了一种对文本进行语义学习的框架,借鉴认知科学和语言学的概念,利用错别字和词序混排等方法进行文本扰动,实现对文本的连续感知,并通过大规模无监督主题对齐训练和自然语言推理监督,达到与现有自然语言处理方法 - 蒸馏模型中的对比学习
使用 SimCSE 论文中的适用对比学习方法,将基于知识蒸馏模型 DistilBERT 的模型架构进行调整,以解决自然语言处理模型在语义文本相似度上效果不佳且过大无法部署为轻量级边缘应用的问题,最终得到的轻量级模型 DistilFace 在 - Sim-GPT: GPT 注释数据的文本相似度
通过 GPT-4 注释的数据进行文本相似性测量的 Sim-GPT 方法是本文的核心内容,该方法通过使用 GPT-4 生成带有 STS 标签的数据来训练 STS 模型,填补了 STS 训练信号缺乏的空白。通过 BERT 或 RoBERTa 作 - 基于分布的阈值确定句子相似性
通过使用孪生架构的神经网络,找到相似和不相似句子之间的距离分布,以及区分相似和不相似句子的阈值,并结合距离函数和分布特征进行预测评分,将结果推广到更广泛的领域。
- DeeLM: 提升依赖关系的大型语言模型用于句子向量表示
使用大型语言模型(LLMs)的句子嵌入的最新研究提出,然而大部分现有的 LLMs 都建立在自回归架构上,主要捕捉正向依赖,忽视反向依赖。本文首先提出定量证据,证明 LLMs 对反向依赖的学习有限。然后,我们提出一种称为依赖增强大型语言模型( - 稀疏对比学习的句子嵌入
使用参数稀疏化的方法,通过在标准语义文本相似性任务和迁移学习任务中进行更多实验,研究表明提出的 SparseCSE 在性能上优于 SimCSE,并通过深入分析展示 SparseCSE 生成的嵌入空间比 SimCSE 具有更好的对齐性,而一致 - ACL一种高效的自监督跨视角句子嵌入训练
我们提出了一种称为自监督跨视图训练(SCT)的框架,以缩小大型和小型预训练语言模型(PLM)之间性能差距,并在 7 个语义文本相似性(STS)基准测试中通过与 5 个基准和最先进的竞争对手的比较,在参数数量从 4M 到 340M 范围内的 - 优化角度的文本嵌入
提出一种新的角优化文本嵌入模型 AnglE,有效缓解余弦函数饱和区域的负面影响,改进语义文本相似性任务性能,通过实验证明 AnglE 在多个任务中优于其他模型。
- EMNLP文本编码器缺乏知识:利用生成型语言模型为特定领域的语义文本相似性提供支持
语义文本相似度问题可以作为生成文本问题来解决,生成型的大型语言模型在特定领域的语义相似度任务中表现优于基于编码器的模型,并且在需要世界知识的 STS 任务上,新收集的数据验证了这个结论。
- 利用语义文本相似度关联症状清单
通过使用语义相似度的人工智能方法,将症状和得分联系起来,从而解决了不同研究环境和研究结果不可比较的问题,提高了症状评估的准确性和临床决策过程中的效率。
- 语义文本相似度中文程序缩略模型的比较研究
比较语义文本相似性方法在检索类似缺陷报告方面的有效性,使用 TF-IDF(基线)、FastText、Gensim、BERT 和 ADA 等嵌入模型来评估性能。研究结果表明,BERT 一般在召回率方面表现优于其他模型,其次是 ADA、Gens - 语义文本相似性中的群体人类观点
本研究提出了第一个拥有约 15,000 个中文句子对和 150,000 个标签的不确定性感知语义文本相似度(STS)数据集(USTS),旨在研究 STS 中的集体人类观点。通过分析可以发现,一个标量或一个高斯分布无法充分地适应观测到的判定集 - 同卵和异卵双胞胎:句子表示的细粒度语义对比学习
通过提出一种名为 IFTCL 框架的方法,结合实例对比学习和数据增强,我们证明了该方法在九个语义文本相似性任务上优于现有方法。
- 提升 Transformer 架构在语义文本相似性方面的性能
本文针对语义文本相似度的任务,采用 BERT、RoBERTa 和 DeBERTaV3 三种交叉编码器以二分类或回归的方式建模,调整了模型结构和手工特征的输入,旨在提高其准确性,其中就测试数据结果的讨论进行了误差分析。