BriefGPT.xyz
Ask
alpha
关键词
self-attention neural network
搜索结果 - 2
文本分类的量子自注意神经网络
本文提出了一种名为 QSANN 的量子自我注意神经网络,它将自我注意机制引入到量子神经网络中,通过高斯投影解决了诸如大规模数据集和句法依赖性网络结构等限制;QSANN 在公共数据集的文本分类任务中表现优越,且具有鲁棒性和可扩展性。
PDF
2 years ago
Facts2Story:通过关键事实控制文本生成
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填
→
PDF
4 years ago
Prev
Next