解读来自多个领域的对话中的是非问题答案
本文关注的问题是针对是非问题的回答,针对这个具有挑战性的问题,我们发布了八种语言的新基准,并提出了一种利用远程监督方法来收集训练数据的方法。我们还证明了直接回答(即包含极性关键词)有助于训练模型解释间接回答(即不包含极性关键词)。实验结果表明,如果可以通过远程监督获得感兴趣语言的训练数据,单语微调是有益的(5 种语言)。此外,我们还展示了跨语言微调总是有益的(8 种语言)。
Oct, 2023
社交媒体上解释是非问题的答案是困难的,本文提出了一种新的包含来自 Twitter 的 4,442 个是非问题答案对的语料库,探讨了解释为是、否或未知的答案的语言特征,证明大型语言模型在解决这个问题上仍然存在问题。
Oct, 2023
本文关注了对话中的一种实用推断问题:理解对问题的间接回答。通过精心的众包,创建并发布了第一个大规模的英语语料库 'Circa',并提出了基于 BERT 的神经模型来预测一对问题 - 答案的类别。结果表明,虽然从蕴涵的传递学习中可以得到合理的表现,但性能还不足以进行稳健的对话。我们的模型可以达到 4 类区分的 82-88%的准确性,6 类则为 74-85%。
Oct, 2020
该研究设计了一种基于神经网络的对话系统,实现了基于用户查询情境感知和否定回复的定制化回答,提高了对话效果和多样性,并通过自动和人工评估证明了系统的有效性。
Dec, 2020
本文研究了自然环境下的是 / 否问题。我们建立了一个名为 BoolQ 的阅读理解数据集,并展示了它们出人意料地具有挑战性。我们还探讨了一系列迁移学习的基线效果,并发现从蕴涵数据进行转移的效果比从释义或抽取式 QA 数据进行转移的效果更好,即使从 BERT 等大规模预训练的语言模型开始转移,蕴涵仍然非常有益。我们的最佳方法是在 MultiNLI 上训练 BERT,然后在我们的训练集上重新训练它。它的准确率为 80.4%,而人类注释人员的准确率为 90%(多数基准为 62%),为未来的工作留下了巨大的差距。
May, 2019
通过提出一个视觉基础的问题 - 回答模型框架,使用期望的信息量增益优化来产生极性澄清问题以消除人机对话中的误解,从而展示了该模型在目标导向的 20 个问题游戏中与人工回答者一起提出的问题如何提高交流成功率。
Oct, 2021
本研究分析了神经网络开放领域对话系统所学习的内部表示,并评估了这些表示的质量以学习基本的交谈技巧。结果表明,标准的开放领域对话系统难以回答问题、推断矛盾并确定对话话题等任务,需要更多的研究来探讨建筑和训练方法,从而更好地捕捉有关对话的高级信息。
Jun, 2020
本文研究了提高生产质量的面向任务的对话系统的设计的困难,提出了使用自然语言的轻量级语义表示 —— 规范形式作为用户意图分类的替代方法,并且展现了规范形式可以很好地泛化到新的、未知的域,在零次或少次样本学习中可以轻易实现,并且可以降低开发新的任务导向的对话域的复杂性和费用。
Nov, 2022
本文提出了一种采用双编码器网络进行弱监督训练的原型对话响应生成模型,从过去的代理回答中提取嵌入导出的答案模板,选择最佳模板生成对客户咨询的回答。在像客户服务这样的封闭领域中,所选模板可以涵盖过去咨询的 70%以上。此外,模型选择的模板的相关性显著优于标准 tf-idf 基线选择的模板。
Mar, 2017