关键词pre-trained encoder-decoder models
搜索结果 - 3
- COLING语言知识可以增强编码器 - 解码器模型(如果你愿意)
本文探讨了将预训练的编码 - 解码模型(特别是 T5)与语言知识相结合用于预测目标任务时的影响。我们研究了在预测句子的结构语言属性的中间任务上微调 T5 模型是否会改变其在预测句子级复杂性目标任务上的性能。我们的研究包括在意大利语和英语数据 - 摘要现状
本文旨在简明扼要地阐述抽象文本摘要现状,强调需采用预训练编码器 - 解码器模型与大型自回归语言模型。此外,讨论了摘要系统评估的挑战和用于零 - shot 摘要的 instruction tuned 模型的潜力,最后概述了如何将摘要系统整合到 - 利用摘要指导进行医学报告摘要
本研究提出了三个去识别化的医学文本数据集,命名为 DISCHARGE、ECHO 和 RADIOLOGY,共包含 50K、16K 和 378K 的报告和摘要对,作者在这些数据集上使用基于预训练编码器 - 解码器语言模型的有说服力的自动抽象摘要