在线辩论中,采用了序列 - 图方法来建模和分析参与者之间的互动,结果表明序列图网络在在线辩论中获得了比现有方法更好的结果。
Jun, 2024
本文提出了一种基于神经网络的方法,模拟了关注和意图过程,并通过三个循环网络实现。该模型在无标注数据的情况下进行端到端训练并能生成自然的响应。
Oct, 2015
该研究探讨了基于深度神经网络的自动生成响应的模型,着重讨论了结构松散的任务,如基于单词级别的对话响应生成,并提出了基于生成的编码器 - 解码器神经网络架构的新模型,以增强对话的长期历史纪录、建模对话中的不确定性和歧义性、生成具有高级组合结构的响应。
Nov, 2016
本研究将多智能体辩论的概念扩展到更一般的网络拓扑结构,衡量了问题回答的准确性、影响力、共识以及偏见对集体的影响。结果表明,随机网络与全连接网络效果相似,但使用的令牌数量显著较少。此外,智能体之间存在平衡,自我反思在局部互动出错时有助于解答正确,而局部互动在智能体本身出错时起到帮助作用。偏见在系统性能中起到重要作用,具有正确偏见的中心节点能提升系统性能。这些发现表明,在多智能体系统中使用随机网络或具有知识的智能体位于中心位置的无标度网络可以提高整体性能。
本文介绍了使用深度神经网络中的递归神经网络和卷积神经网络等措施来实现注意力机制,以解决多元随机变量富含联合分布的结构化输出问题。通过典型任务如机器翻译、图像字幕生成、视频片段描述和语音识别实验,系统展示了很好的性能。
Jul, 2015
本文提出了一种基于源输入逐步自适应重编码的 sequence-to-sequence 模型扩展,以此来鼓励解开编码时存在的混淆状态。最终实验结果表明,这个扩展能够提供更好的解释性和推广性。
Oct, 2021
通过使用基于神经网络的语言生成器,采用多种数据表示和提升方法,我们在餐饮、电视、电脑三个领域展开了实验,证明我们的方法比同类模型在不同评估方法下表现更优秀。
May, 2018
利用卷积神经网络架构完全替代了循环神经网络的流行序列到序列学习方法,运用门控线性单元简化了梯度传播,为每个解码器层装备了单独的注意力模块,在 GPU 和 CPU 上取得了比 Wu 等人(2016)更高的准确性和十倍以上的速度。
May, 2017
通过基于图卷积神经网络的模型,考虑了对话的用户动态和公众看法对话语的影响,可以预测对话的失轨迹象,并在预测前采取积极的管理措施。通过经验评估,在 CGA 和 CMV 基准数据集上,相较于现有的模型,我们的模型可以有效地捕捉对话动态,并在性能上分别提升 1.5%和 1.7%。
Jun, 2023
通过使用基于卷积神经网络而非 encoder-decoder 结构的方法,每一层在输出序列上重新编码源标记,我们的模型在参数更少的情况下表现出色,优于现有的机器翻译系统。
Aug, 2018