BriefGPT.xyz
Ask
alpha
关键词
paragraph encoding
搜索结果 - 1
使用预训练 Transformer 一次性提取多个关系
本研究针对多关系抽取任务,提出仅需一次编码的解决方案,结合预先训练的自我注意力(Transformer)模型、结构预测层和实体感知注意力技术,能够在处理更长段落和大型文本语料库上具有可扩展性,且在标准基准测试 ACE2005 上实现了最好的
→
PDF
5 years ago
Prev
Next