利用大型语言模型将嵌入向量转化为可理解的叙述,解决了嵌入向量难于解释和使用的问题,增强了概念激活向量、通信新的嵌入实体和解码推荐系统用户偏好等任务的能力。
Oct, 2023
该论文介绍了 VLAP(pretrained vision models 和 large language models 之间的视觉理解的桥梁),通过一种新颖的方法,将预训练的视觉模型的嵌入空间转化为大规模语言模型的词嵌入空间,从而有效且通用地实现视觉和语言的理解。
Apr, 2024
本研究探讨了大型语言模型在近似压缩和语义压缩方面的应用及其效果评价,并提出了二元评价指标:是否精确重构 (ERE) 和语义重构有效性 (SRE),结果表明 GPT-4 可能有效地压缩和重构文本,并保留原始文本的语义要素。
Apr, 2023
本文提出了一种语义基础的语言模型方法,将语言模型嵌入到自编码器中,在保持语义解析器冻结的同时通过采样和训练提高了自动生成的文本的流畅度和语义准确性,使用 BLEU 分数和标准解析度量在 English WebNLG 3.0 数据集上进行实验,并通过人工评估验证了自动评估实验的结果。
Nov, 2022
这篇论文探讨了大型语言模型在提高检索式生成任务准确度方面的有效性,发现大型语言模型相较于传统的预训练模型具有更高的潜在危险性,可能对用户隐私造成负面影响,并探讨了缓解这一风险的初步策略。
使用转换器模型从维基百科数据集及其相关类别中提取语义信息,通过不同方法对类别的语义特征进行评估和增强,以提高数据组织的语义准确性。
本文提出引用对齐器和模态切换训练来更好地对齐语音和文本潜在空间,实验结果在 Librispeech ASR 任务和 SNIPS 槽填充任务上都表现出了显著的性能提升。
Oct, 2021
使用语义网技术提升数据空间的可用性,但复杂性对数据空间的采用和成本产生重大挑战,大型语言模型的出现引发了如何支持公平的数据空间采用的问题,本研究通过一个具体示例展示了大型语言模型在数据空间中的潜力,并推导出一个探索这一新兴领域的研究议程。
Mar, 2024
本文提出了一种基于 PLM 嵌入的联合潜在空间学习和聚类框架,通过联合建模主题 - 单词和文档 - 主题分布,有效地利用 PLMs 在主题发现方面的强大表示能力和出色语言特征,并在两个基准数据集上生成了比强劲的主题模型更加连贯、多样的主题,并提供更好的基于主题的文档表达形式。
Feb, 2022
我们介绍了一种名为 “基于词汇定义的语义” 的开创性方法,它在语言模型(LMs)的潜空间中建立了一个固定的参考框架,确保了在 LM 词汇基础上的绝对语义分析。通过广泛的实验,我们的方法超越了检索增强生成和参数有效微调的最先进方法,展示了它的功效和广泛适用性。
Jan, 2024