关于语言编码器间的仿射同伦
本文提出一种将句子编码器与对齐组件相结合的方法,针对改善意思相似度比较任务的性能和可解释性,并通过具体实验证明了该方法能够提升模型对结构差异和高词汇重复的语句的区分能力。
Oct, 2022
本文研究词嵌入技术中的理想表示问题,发现各种模型包含的信息互相矛盾,通过线性变换来调整相似度排序以提高其结果,同时探讨了内在和外在评估之间的关系。
Sep, 2018
本文研究了在多语言训练中的强大的语句编码器,探讨了是否可以通过几何映射来间接地操纵语言属性,并用预训练的多语言自编码器验证了该方法的有效性。
Apr, 2021
通过使用 Centered Kernel Alignment (CKA) 分析图像字幕基准上视觉和语言模型的潜在空间结构,我们发现不对齐和对齐的编码器的表示空间在语义上是相似的。在无统计相似性的情况下,我们展示了存在可能匹配不对齐编码器而无需任何训练。我们将其视为一种基于种子图匹配问题,利用图之间的语义相似性提出了两种方法 - 一种是快速二次分配问题优化,一种是基于新颖局部 CKA 度量的匹配 / 检索。我们在包括跨语言、跨域字幕匹配和图像分类在内的几个下游任务上展示了其有效性。
Jan, 2024
本研究介绍了适配器作为一种轻量级的模型适应方法,为了协助上述过程中产生的新挑战,提供了支持适配器评估的可视化工作区,研究显示,对于训练语言消歧任务的适配器而言,语境 - 0(去语境化)嵌入引入了一种新的偏差类型,这些是上下文 - 0 嵌入的产物。
Aug, 2022
通过简单的转换,我们的研究展示了神经网络模型中学习到的表示可以在不同的预训练网络之间进行转化,从而有效地连接编码器和解码器,并实现在多模态设置下的出色分类性能。
Nov, 2023
通过对多个预训练的多语种语言模型进行研究,探究其输出中的异常维度和它们对各种跨语言语义相似性任务表现的影响。通常使用在平行资源上进行微调的 sentence transformers 在这些任务中表现更好,且表示更各向同性。研究人员通过不同的操作(例如消除异常维度、聚类基于同性等操作)来改进多语种表示。
Jun, 2023
本文比较了不同任务和实验条件下数百个已训练模型的内在和外在偏差度量标准之间的关系,发现这些度量标准在所有情况下都没有可靠的相关性。作者呼吁重点关注外在的偏差度量标准,并通过创建新的挑战集和注释测试数据使使用这些度量标准更加可行。在此基础上,作者发布了一份基于性别偏见的仇恨言论的代码、新的内部度量标准和一个注释的测试集。
Dec, 2020