交互式自然语言处理
该研究论文调查了自然语言处理在药学领域中的应用,包括用于信息提取和处理的深度神经网络等。作者将其总结为五个类别并提出现代 NLP 方法、普遍任务、相关文本数据、知识库和有用的编程库等。总结为一份综合性概述,对实践者和感兴趣的观察者有用。
Aug, 2022
介绍了人与自然语言处理模型 (NLP) 的交互式 (HITL) 的短暂但激动人心的历史,总结了近期以任务、目标、人机交互和反馈学习方法为重点的各种 HITL NLP 框架,并讨论了将来在 NLP 开发中整合人类反馈的方向。
Mar, 2021
介绍了一种新的 NLP 研究新范式 —— 翻译 NLP,利用该范式可以更好地将基础 NLP 和应用 NLP 联系起来,实现相互促进和交流,进一步推动 NLP 研究的发展。
Apr, 2021
本文介绍了交互推断网络(IIN),一种新的神经网络架构,它通过从交互空间层次性地提取语义特征来实现对语句对的高层次理解,并展示了类似大规模 NLI 的语料库上 Densely Interactive Inference Network (DIIN)的最新性能表现,DIIN 相对于最强的发表系统在具有挑战性的 Multi-Genre NLI(MultiNLI)数据集上实现了大于 20%的误差降低。
Sep, 2017
自计算机发明以来,通过自然语言进行沟通一直是一项梦想技术,但是自然语言非常难以进行数学表达,使得在不考虑程序设计的情况下很难将其实现为算法。然而,近年来深度学习在当代人工智能技术中发挥了核心作用,尤其是在自然语言处理领域,取得了前所未有的成果。本报告提供了前沿的自然语言处理技术如何实现 “熟能生巧” 的技术解释,并提供了其在商业应用中的示例。
Oct, 2023
研究自然语言处理的 NLP 和人工智能领域对实体理解的影响,提出了基于实体概念的方法,并介绍了如何在实体链接任务中使用这种方法。通过核指代文簇难题进行了实验研究,分析了知识库实体集成到文本中的方法并从时间视角分析了实体的演变。
Apr, 2023
提出了一种新颖的解释方法,利用人脑阅读复杂自然文本时的脑成像记录来解释最新的四个 NLP 模型 ——ELMo、USE、BERT 和 Transformer-XL 中的词和序列嵌入,研究它们在层深度、上下文长度和注意类型之间的差异,并推测改变 BERT 以更好地对齐脑成像记录将使其更好地理解语言。
May, 2019