重新关注相关性:自然语言生成中的个性化
该论文提出了一种基于神经检索 - 阅读 (Retrieval-Reading) 系统和基于 TFIDF 的文本摘要技术来利用先前的谈话历史中的潜在知识的方法,以便更好地回答问题,并且实验证明该系统显著提高了回答质量。
Dec, 2022
利用 Reddit 数据集,我们在多方参与、自由结构的多轮对话中研究了不同结构元素对话建模的影响,并训练了深度神经网络来预测对话的下一句。我们发现,对话的上下文和参与者的历史信息都对预测准确性有所提高。
Jun, 2016
提出了一种上下文感知的对话响应重新排序系统,使用神经词嵌入模型和手工或逻辑回归模型,将响应在与当前对话上下文的匹配分数和候选人的概率分布的基础上重新排名,提高了最近提出的端到端任务导向对话系统在具有语音识别错误的实际对话中的性能。
Nov, 2018
本文提出了一种两阶段的重新排序方法,通过使用对话上下文模型重新排序第一阶段问题的候选项来帮助弥合训练 - 推断差距,从而解决了由于现有系统使用间接数据或专家知识开发而导致的模型训练 - 推理鸿沟问题,并发现相对于专家系统,我们所提出的全局重新排序器结合转换器骨干的最佳性能,导致 30%更高的标准化折扣累积增益(nDCG)和 77%更高的平均精度(mAP)。
Apr, 2023
本文探讨以知识为指导的自然语言生成技术,旨在产生具有人类思维方式的文本内容。作者提出了十个目标来指导智能化自然语言生成系统的发展,同时简要回顾了以知识和推理为指导的自然语言生成技术的成就。最后,作者展望了未来的发展方向和挑战。
Dec, 2022
本文介绍了如何使用机器学习模型解释文本分类的决策过程以及如何生成基于词向量的文档表示方法。通过对两个不同类型的模型进行比较,表明卷积神经网络在可解释性方面的优势,也使得它更具有人类可理解性,并有潜力应用于其他领域。
Dec, 2016
本文研究以背景学习为基础的评估器,在自然语言生成(NLG)的各个方面进行多维度评估,实验证明:相比于基于训练集的评估器,以背景学习为基础的评估器在文本摘要等维度上具备同等的效力和竞争力;研究表明,在确定和数量选择上下文示例因素的影响下,以背景学习为基础的评估器在评估作为大型语言模型(如 GPT-3)的零样本总结时也具有很强的效力。
Jun, 2023
通过学习上下文中不同因素之间的相关性,PK-NCLI 能够准确高效地识别相关的辅助信息,从而提升会话回应的质量,并在困惑度、知识详解和训练效率三个方面相对于现有方法 PK-FoCus 分别提升了 47.80%、30.61% 和 24.14%,且保持了相同水平的个性化依据表现。
Dec, 2023
本文提出一种个性化的端到端模型,以应用个性化技术来解决对话系统中的一些悬而未决的问题。该模型结合了 “个人资料模型” 和 “偏好模型” 两个子模型,并实践证明其在对话系统任务完成率和用户满意度等方面取得了良好表现。
Nov, 2018