BriefGPT.xyz
Ask
alpha
关键词
history attention mechanism
搜索结果 - 1
面向会话问答的注意力历史选择
本研究提出一种新的解决方案,涉及三个方面(位置历史答案嵌入法、历史注意机制、多任务学习),用于通过卷积式问题应答来理解和回答当前问题,并通过多项实验评估证明该模型的有效性。
PDF
5 years ago
Prev
Next