- HICL:基于主题标签的社交媒体上下文学习的自然语言理解
该研究论文介绍了一种基于上下文学习和 Hashtags 的社交媒体文本理解方法,利用 Encoder 模型通过对比学习和话题相关信息来改进社交媒体 NLU,进一步研究发现结合源输入和从 Encoder 中检索的顶级帖子比使用语义相似的帖子更 - 元认知提示提高大型语言模型的理解能力
通过使用元认知提示,通过系统性的结构化、自我意识评估,结合大量内在的知识和新的认识,可以提高大型语言模型的理解能力。实验结果表明,元认知提示始终优于现有的提示方法,并通过提高 GPT-4 的性能水平,增强了 GPT-4 在各种自然语言理解任 - 通过预训练语言模型探测和多层对比学习实现槽位归纳
在本研究中,我们研究了无需显式标注的词级槽位注释的情况下,用于识别 Task-oriented Dialogue Systems 中的槽位边界的槽位感知(Slot Induction)任务,并提出利用无监督预训练语言模型(PLM)探测和对比 - 设备上的智能助手语言理解
近期,手机和其他个人设备上运行个人数字助手成为可能。本文描述了在设备上运行的自然语言理解系统的设计。与基于服务器的助手相比,该系统更具隐私性、可靠性、速度更快、表达能力更强且更准确。我们描述了关于架构和技术的关键选择。例如,对话系统文献中的 - ACL基于实证知识的日常生活活动评估对话系统的一致性改进
为了解决多名评估员在评估功能失能时存在的一致性问题,作者开发了一个对话系统,该系统仿真了评估员和功能失能个体之间的互动,并需要自然语言理解和生成模块的支持。
- 基于张量技巧的上下文学习注意力机制:从单个 softmax 回归到多个 softmax 回归
本文介绍了注意力相关回归问题在矩阵形式下的向量化技术及利普希茨分析结果。
- ACLHeGeL:希伯来文地理位置信息新数据集
本文介绍了 Hebrew Geo-Location(HeGeL)语料库,它是用于采集字面意义上的地方描述和分析语言地理空间推断的,证明数据展示了丰富的地理空间推断使用,并需要一种新的环境表示。
- RM-PRT: 现实机器人操作模拟器与逐步推理任务基准
本文提出了一个基于预训练语言模型 (ChatGPT) 的真实机器人操作模拟器,并以此为基础建立了一个具有递进推理任务的机器人操作基准 (RM-PRT)。该基准评估了机器人在吸附和抓取的两种模式下理解自然语言命令的能力,并对 10 种不同的 - 基于语言模型检索的多语言少样本学习
本文在多语言和交叉语言设置下,通过全面研究检索语义相似的少样本示例的方法来提升 Transformer 模型在自然语言理解任务中的性能。结果表明该方法在英语以外的单语言和交叉语言任务中均优于随机抽样。
- 生成以理解为基础的表征
本文介绍了一种使用最长公共子串筛选相似文本对同时进行预处理和对比学习的预处理框架 GUR,无需标注数据即可在召回基准测试中以检索器的身份优于所有其他预训练基线。
- SpeechGLUE:自监督语音模型能否有效获取语言知识?
本研究探讨了自监督学习技术对于语音表示及其所携带的语言信息的捕捉能力,并通过 SpeechGLUE 基准测试说明了此技术在语言理解任务方面表现不如基于文本的自监督学习,但优于基准模型,展示了它从无标签的语音数据中能够获取特定数量的语言能力。
- 健壮口语理解的多模态音文结构
本文研究了基于现有自然语言理解模型的语音助手中由自动语音识别误差引起的性能损失,并提出一种多模态语言理解模块,利用自监督学习从语音和文本模态中获取特征,最终通过对音频信号和文本传输进行编码来获得更好的性能。
- ACL深度模型压缩也有助于模型捕捉歧义
本研究提出了一种基于深度模型压缩的新方法,解决了自然语言理解中标记不确定性的问题,并发现了在低层中更合理表示的关系,这有助于减小模型的规模并改善可用性。
- ACL利用结构信息增强语言表示以提升自然语言理解能力
本文介绍了一种使用构造语法概念来丰富语言表示的方法,该方法由一种基于使用的构造语法框架支持,通过提取具有辨别性的构造,然后利用关系超图注意网络获取构造信息的表示来增强语言表示,实验结果表明该模型在各种自然语言理解任务方面具有明显优势。
- ACLbgGLUE:保加利亚常规语言理解评估基准
bgGLUE 是一种 Bulgarian 通用自然语言理解(NLU)评估基准,用于评估语言模型在保加利亚语 NLU 任务中的表现,旨在进一步发展 Bulgarian NLU 模型。
- Transformer 模型的简单有效的自我去偏见框架
本文提出了一种基于 Current Transformer 的 NLU 的自校正框架,该框架可以减少来自数据集偏见的干扰,从而提高对 Out of Distribution 数据的处理能力。
- 自然语言理解的量化感知和张量压缩 Transformer 训练
该论文提出了一种量化感知张量压缩训练方法,通过将 Transformer 模型的嵌入层和线性层压缩成小的低秩张量核,进一步获得低精度的模型表示进行端到端和蒸馏 - based 训练,并应用层与层的蒸馏方法将预训练的 Transformer - ICLR保留预训练特征有助于校准微调语言模型
本研究主要探讨了针对领域偏移的细调语言模型进行校准的问题,并提出了一种有效的方法,即在辅助语言建模目标的基础上鼓励细调模型学习生成表示,从而提高其校准度并在三项下游自然语言理解任务中具有良好的表现。
- ACL残差注意力去偏差的强健自然语言理解
通过提出 REsidual Attention Debiasing 方法,本研究旨在解决自然语言理解模型中存在的数据集偏见问题,并通过实验表明该方法可以显著提高 BERT 模型在三个 NLU 任务上的表现。
- 多轮对话数据的三级联合自然语言理解
我们提出了一种新颖的三级联合自然语言理解方法,加入了领域信息,并在所有级别之间体现了语义信息的交换,从而使得我们的模型在多轮数据集上的单词级别的意图检测和插槽填充方面优于现有的联合模型,并且通过分析我们得出,包含领域信息可以提高模型的性能。