- 通过人机合作解决自然语言处理问题:一种基于讨论的方法
研究创建一个数据集和计算框架,使系统能够与人进行对话并改进其预测,通过实验表明所提出的系统可以通过讨论与人产生益处的对话,从而在自然语言推理任务中提高准确性高达 25 个百分点。
- 使用 LLM 进行深入对话问题的思维链提示
本文通过构建 6 个涵盖用户状态的(包括人格、情绪和心理)中英数据集,探索了 CoT 方式来帮助大型语言模型进行推理和规划,以提供更个性化和优质的用户体验,并提出了一种新颖的演示选择策略,使用中间推理的语义相似性进行,实验证明了我们的方法相 - MultiModal-GPT: 一个视觉语言模型,用于人类对话
该研究提出了名为 MultiModal-GPT 的视觉与语言模型,可以利用证据和语言数据对多模式指令进行调整,为模型的不断对话提供支持,同时提出了联合培训的观点,并通过各种演示展示了 MultiModal-GPT 的连续对话能力。
- 先学习可能性,再选择最佳方案:通过文本游戏分离语言中的一对多关系
利用离散潜在变量和知识蒸馏的方法,从多样的预训练数据集中捕捉了一系列不同的行为,并将这种多样性应用于学生模型中,显著提高了对话系统生成回复的准确性。
- 使用丰富元数据注释对屏幕人物进行个性化语言建模
本文描述了对 Cornell 电影对话语料库中的 863 个发言人进行人工特征标注的方法,这些标注可以用于个性化语言模型,包括特征引用和角色描述,并自动提取了超过 95%的电影的六个 Metadata。实验证明,这些注释可以有效地用于个性化 - EMNLP如何有效地进行不同意:研究维基百科争论中使用的策略
我们提出了一个辩论战术的框架,用于统一争议的各种方面,并注释了来自维基百科讨论页面的 213 个争议,使用变压器模型是预测争议战术的最佳选择。
- EMNLP对话中的端到端神经语篇指示消解
通过对任务特定特征进行扩展,我们将 Lee 等人(2018)的基于跨度的实体共指模型应用于对话中的端到端篇章指代解析任务,并提出了 dd-utt 模型。该模型在 CODI-CRAC 2021 共享任务的四个数据集上取得了最先进的结果。
- AAAI在多模态对话中解释(讽刺性)话语以提高情感理解能力
本文介绍了使用 MOSES 模型对于含有讽刺言语的对话进行 Sarcasm Explanation,以及在此基础上实现的 Sarcasm detection, humour identification, 和 emotion recogni - DiaASQ:一项对话基于方面的情感四元组分析基准测试
本文介绍了一项新任务 DiaASQ,旨在探索对话中目标 - 方面 - 意见 - 情感的细粒度情感分析,并提出了一个神经模型来进行四元组预测,以更好地跨话语提取四元组,以桥接细粒度情感分析和对话意见挖掘。
- EMNLP一种高效的记忆增强转换器,用于知识密集型 NLP 任务
提出了 Efficient Memory-Augmented Transformer (EMAT) 作为一种结合参数式模型和检索式增强模型的方法,有效地利用外部知识源以提高自然语言处理任务的准确性和计算效率。通过将外部知识编码为键值内存,并 - EMNLPComFact: 上下文常识知识链接基准
本研究提出新的任务 —— 通识事实连接,并构建了一个新的基准数据集 ComFact,结果表明启发式事实连接方法是不精确的知识提取器,而学习型事实连接模型则明显改善了下游任务表现。
- 通过敏感情绪识别和合理知识选择的共情对话生成
为解决对话中情感的动态性和共情生成中的常识知识冲突问题,我们提出了一种串行编码和情感 - 知识相互作用(SEEK)方法,使用细粒度编码策略和知情与情感的相互作用建模,从而在共情对话生成方面表现出色。
- 机器阅读理解的稳健领域自适应
本文提出了一种名为 RMRC 的方法,使用对话和领域自适应技术构建问题 - 答案对,通过答案提取器和问题选择器以及增强式自训练方法进行优化,从而解决机器阅读理解中因领域迁移引起的问题,包括噪声对应和效率降低,实验证明了该方法的有效性。
- COLING将因果分析融入多样化和逻辑回复生成中
本文研究了 Conditional Variational AutoEncoder(CVAE)生成回答时常常与原问题不相关或缺乏逻辑性的原因,并提出了一种寻找中介变量和缓解对话中混淆偏差的方法。在此基础上,提出了动态话题图引导的条件变分自动 - 故事中角色对话理解和生成的基准测试
这篇论文提出了两个任务,包括对话生成和对话说话者识别,并构建了一个新的数据集 DialStory 以进行评估,同时提出了学习显式角色表示以提高性能,并通过实验和案例研究表明,我们的方法可生成更连贯和信息量更大的对话,并实现了比强基线更高的说 - 大型语言模型与反图灵测试
大型语言模型(LLMs)是自我监督的预训练模型,可适应广泛的自然语言任务,但其是否理解其所说的话或表现出智能受到广泛争议。提出了一个新的可能性,即它们表现出的智能实际上是镜像了面试官的智能,它可能更多地揭示了面试者的智能和信仰而不是 LLM - 建模非合作式对话:理论和实证研究
本文研究了在完成一个同时进行的视觉 - 对话任务时,如何识别非合作对话者,使用学习理论的工具开发了理论模型,提出了多种沟通策略并应用强化学习来实现,通过对 GuessWhat?! 数据集的非合作对话语料库的实验结果验证了理论模型的有效性。
- 对话处理的在线共指消解:提高即时对话中的提及链接
本文提出了一种针对在线解码的指代消解方向,其针对包含对话在内的实时生成输入的场景,在每个对话轮次上,该模型接受一个话语和其过去的语境,然后查找当前话语中的提及以及它们的指代。该文章提出了基线和四个增量更新的模型,适应于提到链接范式的新设置, - ACL通过关联数据适应进行谈判对话中的对手建模
本研究提出了一种 for identifying the priorities of the opponent in multi-issue negotiation from partial dialogues,通过关键词识别和数据适应的方 - ACLUniGDD: 一个面向目标的文档驱动对话的统一生成框架
本文提出了一种基于文档的对话方法,通过生成理解文本的知识与回答用户提问,逐步消除错误传播问题,并采用温度调度方法减少文档信息的负面影响,实验结果证明了多任务学习策略的有效性。