提出了一种交互式多模态框架,通过协作推理游戏,实现神经网络学习语言,初步实验结果可喜,但需注意避免智能体发展出仅针对游戏有效的特定通信编码。
May, 2016
本文提出了两种优化神经网络语言模型适应新数据的方法,包括在重新采样数据上进行继续训练或插入适应性层。在 CAT 环境中应用于 SMT 系统中,这两种方法均取得了显著的改进。
Dec, 2014
本文介绍了一种基于最新的神经网络连续学习技术的领域无关的神经对话模型,同时提出了一种新颖的神经连续学习算法,能够以数据 - 效率的方式跨越不同任务积累技能,在客户支持领域通过从合成对话或人类之间的对话到人 - 计算机对话的连续技能转移来验证方法的功效。
Dec, 2017
本文提出了一种基于多智能体交互通信的语言学习框架,在指代游戏的上下文中研究了这种学习方法,通过联系人工智能代理人彼此通信以识别随机图像,在通过调整游戏环境来提高代理人交流的自适应语言结构,并为代理人的代码提出简单的系统,从而使其更好地恰当地通信,并能更有效地与人类沟通。
Dec, 2016
通过自我监督预训练不断学习的大型语言模型,可以在多个数据集上持续学习并保持先前任务的良好性能,同时展示新的组合方式。
May, 2022
通过使用机器学习及自然语言处理技术,研究语言习得过程,探讨如何让模型学习在有限的语言输入下获取语言知识,以验证关于人类语言学习本质的假说。
Aug, 2022
通过使用深度 Q 学习,研究了多智能体强化学习在具有连续通信通道时的应用,发现基本组合特性会在学习的语言表示中出现。噪声在传达未经历过的概念组合时很重要,引入有倾向性的护理者可以使得新的交流创造出一种更有意义的基础语言。这个研究为深度强化学习与多智能体系统的进一步相关研究提供了平台。
Nov, 2021
本文提出一种基于心理语言学理论的适应性模型,通过模拟模块监控计划发言的有效性并实时控制话语生成,实现知识丰富的说话者对具有更有限语言和视觉经验的听者进行言语适应,以提高沟通成功率。
May, 2023
提出了一种方法,基于手写语法直接估计 n-gram 数量和使用约束优化来适应新应用意图,同时不降低过去应用的性能,使用该方法在私人助手系统中对新应用意图进行了评估,发现即使对于没有此类应用程序的适应数据,适应可以将单词错误率提高 15%。
Dec, 2018
通过基于表示学习的模型来适应连续的领域,可以更好地研究领域适应和语言变异,对话建模可以作为测试床。
Oct, 2016