- 基于槽位的多模态对话系统中响应生成的统一框架
本文提出了一种多模态对话系统的端到端框架,利用预训练的 DialoGPT,并利用知识库(Kb)提供更强的上下文信息来从话语中提取所需的插槽值和生成一致的响应,使用多模态层次编码器,并设计槽注意机制来聚焦于给定话语中的必要信息,最终实验结果表 - ACL自然语言理解的定义和测试中的自由程度
本篇论文提出对自然语言理解测试的重新思考,通过识别研究人员的自由度,提出有效性论证框架作为设计可靠测试套件的指南以促进科学交流。
- 大型语言模型作为反事实生成器:优缺点
本研究探究了大型语言模型(LLMs)进行反事实生成和数据增强的能力,发现 LLMs 很有效的进行反事实生成,但因为自身限制和缺少实用逻辑指导,在某些复杂任务上表现欠佳。提供准确的任务定义和详细的操作步骤对于在 LLMs 中生成反事实具有决定 - DialogVCS:对话系统中鲁棒的自然语言理解升级
通过 DialogVCS 建立了一种新的基准测试方法,将包含语义交织的意图识别问题建模为带有正标签但是未标注意图的多标签分类任务,并提出了综合的基线模型以有效地识别具有语义交错的意图。
- 通用自适应提示
通过研究,我们提出了一种自适应提示设计方法,能够使用只有少量未标记的数据和仅推理的 LLM 实现广泛的零 - shot 学习,该方法通过将 NLP 任务分类为三种类型,并使用相应的选择器选择最合适的查询和零 - shot 模型生成的响应作为 - ACL从字符到词语:分层预训练语言模型用于开放词汇语言理解
该研究引入了一种新颖的开放词汇语言模型,包含两个层次:词级和序列级,并通过对字符的表示以及全局的序列级别上下文调整,使模型直接处理字符序列,而不是子词或词级别的词汇表,取得了比强基准表现更好的效果,并且具有文本破坏和域移位的鲁棒性。
- Few-shot 和 Zero-shot NLU 任务中 Prompt 位置真的很重要
通过最全面的实证研究,发现在自然语言理解任务中,提示位置对模型性能有很大的影响,提示模板的优化是一个有趣的研究方向。
- ACLmPMR: 规模化的多语言预训练机器阅读器
mPMR 是一种新颖的多语言机器阅读理解 (MRC) 预训练方法,旨在指导多语言预训练语言模型 (mPLM) 在多种语言中执行自然语言理解 (NLU)(包括序列分类和跨度提取)。mPMR 通过 MRC 样式的预训练,直接继承多语言 NLU - ZeroSCROLLS:一种用于长文本理解的零样本基准
介绍了 ZeroSCROLLS,这是一个针对自然语言理解的零样本基准测试,对六项任务进行了改编,增加了四个新的数据集,包括两个信息聚合任务,使用 ZeroSCROLLS 进行了对比评估,发现 GPT-4 的平均分数最高,但是还有多个开放性挑 - 通过示例引导的问答方式进行连续对话状态跟踪
通过将对话状态追踪重新构想为一个打包的例子指导的问题回答任务,以利于持续学习并减少服务特定的记忆,该方法通过学习在过程中上下文的例子以及结合对话层次的记忆回放方法,无需依赖于任何复杂的规范化或参数扩展方法,便可获得 DST 持续学习度量上的 - 问题回答作为编程解决时效性问题
本文旨在将大语言模型(LLMs)应用于问题作为编程(QAaP)中,以解决具有时间约束的事实问题,我们试图利用 LLMs 将各种表达形式的文本表示为良好结构的代码,以此来获取所需的知识和底层符号约束条件。
- 使用生成的事实作为原子的自然语言推理的逻辑推理
本研究提出了一种模型无关的逻辑框架,以确定每个输入中负责每个模型决策的特定信息并生成可解释的自然语言推理模型,其性能优于当前最先进的神经模型,适用于高度挑战性的 ANLI 数据集。
- ACL歧义遇到不确定性:探索词义消歧的不确定性估计
本文针对单词语义消歧(WSD)问题,对现有的监督学习方法在真实世界场景中处理噪声和分布不均问题时不足的问题进行研究。首先比较了几种不确定性评分方法,然后通过测试场景对数据和模型的不确定性进行分析并探究了对其产生影响的多种词汇属性。
- 扩展语言模型的记忆
本文介绍了长期记忆网络 (LTM) 以解决自然语言理解模型在处理长的序列文本时出现的问题。通过在语言建模任务上进行测试,我们发现 LTM 能够学习到无限长的序列信息,并与其他需要长时间记忆的语言模型进行比较。
- 通用多意图条件槽位填充
本文提出了一种更普适的槽位填充方法,通过将其视为 JSON 生成任务,并使用语言模型进行处理。本文结合 DBpedia 和现有的槽位填充数据集以及 GPT-3 生成属于该领域的数据集,使用 T5 模型进行训练,并发现加入 prompt 后两 - BERTTM:利用预训练语言模型的上下文化单词嵌入来进行神经主题建模
本研究开发了一种新型的神经主题模型,结合了来自预先训练的语言模型 BERT 的上下文化单词嵌入,无需使用任何词袋信息即可推断文档的主题分布,实验表明该模型在文档分类和主题连贯度指标方面优于现有主题模型,并可处理来自新到达文档的未见单词。
- 基于提示的黑盒调参:从三个正交视角提高模型的泛化能力
本文提出 BBT-RGB, 一套用于提高黑盒优化效率和性能的简单而相辅相成的技术。我们的实验结果表明,该方法在各种自然语言理解和推理任务中具有很好的有效性。
- 自标记对抗性反事实推理:用于负例推广的场景
本文提出 SCENE 方法,一种自动方法用于综合训练数据以有效提高模型检测负面样本的能力,该方法通过自标记对抗法来实现对正例数据的零样本负例数据合成,并通过对 SQuAD 2.0 数据集和 ACE-whQA 数据集的实验结果表明该方法可显著 - 基于交叉模态衔接器的通用高效视觉知识注入预训练语言模型
本文提出了一种新的插入式模块 X-adapter,用于将预训练的 VLMs 的对齐视觉和文本知识灵活地融入 PLMs 中,以提高对象 - 颜色推理和自然语言理解 (NLU) 任务性能。
- 自治 GIS:下一代 AI 动力 GIS
本研究提出一种基于大型语言模型的 AI 地理信息系统 (Autonomous GIS),通过自动化的空间数据收集、分析和可视化,解决空间问题。Autonomous GIS 的设计原则包括信息充足性、LLM 能力和代理架构,能够实现自动生成、