社会科学的 Transformer 编码器
社交媒体平台在危机传播中起着重要作用,但由于其非正式性质,分析危机相关的社交媒体文本具有挑战性。为了解决危机信息学文献中的这些差距,本研究引入了 CrisisTransformers,这是一个预训练语言模型和句子编码器的集合,它们经过广泛的语料库训练,包含了超过 150 亿词元的推文,涉及 30 多个危机事件,包括疾病爆发、自然灾害、冲突和其他重大事件。评估现有模型和 CrisisTransformers 在 18 个危机特定的公共数据集上表现,我们的预训练模型在所有数据集的分类任务中都优于强基线,而我们表现最佳的句子编码器在句子编码任务中将现有技术水平提高了 17.43%。此外,我们研究了模型初始化对收敛性的影响,并评估了领域专用模型在生成语义有意义的句子嵌入中的重要性。所有模型已公开发布,以期成为分析危机相关社交媒体文本任务的强大基准。
Sep, 2023
本研究旨在通过基于 Social Science Citation Index (SSCI) 期刊发表的摘要的预训练模型来提高自然语言处理任务的性能,目前该模型已在 GitHub 上发布,并在学科分类、摘要结构 - 功能识别和命名实体识别任务中展现出了优秀的性能。
Jun, 2022
本研究展示了 BERT 如何在文本摘要中有用地应用,并提出了一种通用的框架,包括抽取式模型和生成式模型。在此框架下,我们引入了一种新的基于 BERT 的文档级编码器,该编码器能够表达文档的语义并获取其句子的表示,通过堆叠多个 Transformer 层来构建我们的抽取式模型,对于生成式摘要,我们提出一种新的微调策略,以解决编码器和解码器之间的不匹配问题,并演示了两阶段微调方法可以进一步提高生成摘要的质量。在三个数据集上的实验表明,我们的模型不仅在抽取式设置下,在生成式设置下也达到了最先进的水平。
Aug, 2019
本文采用基于转换器模型和双向 LSTM 网络的方法,结合心理语言学特征进行基于文本的情感检测,在两个基准数据集中表现出可比性,在六个统一情感数据集的迁移学习实验中表现出强大的跨领域泛化功能。
Dec, 2022
本研究探讨了采用不同类型的最先进的转换器模型对文本分类的性能,发现其中 RoBERTa 模型在测试数据集上表现最佳,可用于文本中灾难的检测。此外,我们发现预处理技术,词汇表中单词的性质,不平衡标签和模型参数对学习算法的性能产生影响。
Mar, 2023
该论文讨论了在第三届学术文档处理研讨会上开展的 DAGPap22 共享任务中开发的神经模型,侧重于比较不同的基于 transformer 的模型并使用附加数据集和技术来处理不平衡的类别,在提交最终版本时,我们使用经过随机过采样技术微调的 SciBERT,RoBERTa 和 DeBERTa 集成模型达到了 99.24% 的 F1 得分,官方评估结果将我们的系统排在第三位。
Sep, 2022
使用 BERT 和 transformer 层的简单和有效的 Named Entity Recognition 方法在计算机科学和生物医学领域的三个基准数据集上优于当前最先进技术,无需外部资源或特定数据增强。
Mar, 2022
本文研究了基于 Transformer 模型的跨模态图文检索问题,发现在大规模电商产品数据集上,相比于 RNN 等传统语言模型以及简单的平均词向量模型,基于 Transformer 的跨模态嵌入表现更加优秀。
May, 2020
本文提出了一种新型 Transformer 结构,其特点是全层归一化、加权残差连接、利用强化学习的位置编码和零屏蔽自注意力。通过使用 Multi30k 翻译数据集进行双语评估替代,验证了所提出的增强型 Transformer 模型。结果显示,增强型 Transformer 的 BLEU 分数比原始 Transformer 模型高出了 202.96%。
Oct, 2023