- 多模态元学习中使用条件批量归一化的辅助任务调节的限制
多模态元学习中,通过语言表示来指导视觉学习的多模态架构被提出,但在两个流行的少样本分类基准上验证后发现改进效果不稳定且主要取决于桥连接网络的计算和参数引入。
- 大型 GPT 模型在语言表示中发现道德维度了吗?句子嵌入的拓扑研究
我们研究了 Chat-GPT 的基础语言模型中神经活动的拓扑结构,并分析了其相对于公平性的度量标准。我们开发了一种新方法,通过计算一种公平性度量标准来理解人类对公平性的评估因素,并通过与此度量标准相关的热力图对简单复形进行着色,从而产生可读 - 模态转移中的杠杆点:比较仅语言和多模态词表示
本研究比较了来自不同模型的单词嵌入,在 46 个语义参数中识别出最受视觉语境影响的单词,并发现视觉模态效应与涉及具体性的指示语义属性最相关,但也适用于多个特定的语义类别,以及与情感相关的联想语言表达的倾向属性。
- ICLR使用逻辑归纳偏置学习语言表示
本文介绍了一种基于逻辑推理的神经网络架构 FOLNet,它可以有效地学习强大的语言表示,并具有更强的迁移学习能力。实验证明,FOLNet 模型在多个语言理解任务中胜过了现有的强大的基于 Transformer 的方法。
- 多模视觉监督对语言有益吗?
本文探讨和研究使用视觉监督学习的语言表示相对于常规语言表示对自然语言理解和常识推理基准测试的优劣,并根据多个图文模型和视频文本模型的实验结果发现,常规语言表示在多数任务中表现更好,揭示了视觉 - 语言模型当前的缺陷。
- 针对印度语言表示的社交意识偏差测量
本篇论文探讨了语言表示法中出现的灌输的社会偏见,特别是针对印地语语言表示法中种姓和宗教相关的偏见。该研究展示了如何根据地区的历史和文化,将有着独特偏见的语言表示法区分开来,同时强调了当我们建模语言表示法时,必须关注文化和语言学因素以更好地理 - 语言表征空间中的低维结构在大脑响应中有所体现
研究了神经语言模型、翻译模型和语言标注任务中学习到的表示之间的关系,发现了一种低维的语言表示嵌入模型,可以编码处理各种 NLP 任务所需的表示之间的关系,并且可以用来预测各种特征空间与人类大脑对自然语言刺激的响应之间的映射关系,同时主要维度 - ACL语言嵌入:用于语言类型学和跨语言迁移学习
本研究探究是否可以通过学习表示语言之间关系的语言表示来进行跨语言任务,而无需使用平行数据。使用去噪自编码器产生 29 种语言的密集嵌入,并在零样本情况下使用 WALS 和两个外部任务(跨语言依赖解析和跨语言自然语言推理)来评估嵌入。
- 文本压缩辅助下的 Transformer 编码
本文提出了显式和隐式文本压缩方法来增强 Transformer 编码,并用这种方法评估了多个依赖于编码的典型下游任务的模型。我们提出了三种方式的集成,即骨干源侧融合,目标侧融合和双侧融合,以便于变压器基于模型集成骨干信息的各种下游任务中。与 - ACL基于代码更改的自然语言注释更新学习
本文提出一种通过学习不同的自然语言表征和代码表征之间的关系,生成一系列编辑操作来更新现有自然语言注释的方法,并在开源软件项目集合上进行多个实验和对比,结果表明该模型性能优于其他算法。
- AAAI语言理解的语义感知 BERT
提出了一种改进的语言表示模型 Semantics-aware BERT,通过集成来自预训练语义角色标注的显式上下文语义,从而在十项阅读理解和语言推理任务中获得了新的最先进或实质性改进的结果,以促进自然语言理解。