该论文提出了一种基于递归语用推理框架的实用指称表达解释模型,利用两个循环神经网络分类器的预测来识别颜色,实验证明模型比分类器更准确地解释颜色描述,并且大部分改进来自于结合说话者和听者视角。
Mar, 2017
本研究使用中文颜色参考游戏数据,证实了中英语境下同样表现出对语境难度的敏感性;并展示了采用多任务学习方法训练的神经说话人模型,相比其单语中文模型更贴近人类对语境的依赖,并且不会以达到语言特定的语义理解为代价。
Mar, 2018
我们提出了一个基于先验推理和学习语义结合的思想来描述场景的模型,成功率高于现有技术。
Apr, 2016
使用自然語言處理的方式分析了在重複參照遊戲中,設定共同基礎並理解彼此喜好的過程。發現不同的語言配對會發現各種特殊而有效的合作方式,而這些合作方式受到溝通環境的影響。此外還發現人們說話越來越有效率,最終成為包含開放類詞語的簡短標籤。
Dec, 2019
本研究提出了一个基于交互式重复参考任务的连续学习框架,以更准确和高效地与伙伴通信,并通过 COCO 的模拟和与人类伙伴的实时参考游戏实验进行了评估。
Nov, 2019
这篇研究使用一个新颖的推理测试来探索语言数据对于计算机理解物理世界的可行性,并强调模型可能直接从纯语言数据中学习的内容。
Aug, 2022
人们通过上下文来丰富文字表达,实现简洁而有效的沟通,为了让人工智能系统能够与人类进行自然交互,需要强调语用学技能,从分享语言目标和约定到视觉和肢体世界中的语境等,利用各种上下文信息有效地运用语言。本文调查现有的语境实现和语用模型方法,并分析了每个工作中的任务目标、环境语境和沟通便利之间的关系,从而丰富了语言含义。我们提出了关于未来基于任务设计的语境需求,以自然地引出语用现象的建议,并建议在更广泛的沟通语境和便利方面继续探索。
Nov, 2022
本文考察了大型语言模型对语言习得中的概率关系和上下文敏感性建模的能力,并针对基于强度先验条件的语境下的 pragmatism utterances 进行了阈值估计实验。结果表明该方法成功地推导出了一些复杂 pragmatic utterances 相关的人类类似信息分布,但对于否定的组成较为困难。
May, 2023
本文通过在英语材料的专家评估集上进行零 - shot 提示,进行了人类和语言模型在七个语用现象上的精细比较,发现最大的模型可以实现高精度和匹配人类错误模式,同时发现证据表明模型和人类对相似的语言提示敏感,旨在探讨人类语用处理机制和语言模型之间的关系。
Dec, 2022
通过运用认知科学中的教学法和实用主义解决自然语言中的指称歧义,提高了机器人学习者在模拟机器人任务(堆叠)中的样本效率。
Sep, 2022