BriefGPT.xyz
Ask
alpha
关键词
pretrained language encoders
搜索结果 - 3
预训练语言编码器是方面情感三元组提取的自然标注框架
通过深入探究所含特定知识,该研究提出不必再设计模块来捕获 ASTI 的归纳偏差,奠定了 PLEs 可以作为自然标记框架用于 1D 和 2D 标记的基础,进一步提高标记结果的性能,这一方法已在实验中验证其新的最先进水平。
PDF
2 years ago
ACL
XDBERT:从跨模态系统中提取视觉信息以改善语言理解的 BERT 知识蒸馏模型
本文旨在研究如何将预训练的异模态 transformers 的视觉信息提炼给语言编码器,提出了一个被称为 XDBERT 的新框架,经过训练后在常规语言理解评估(GLUE)、有对抗生成的情况(SWAG)以及可读性基准测试上比预训练的 BERT
→
PDF
2 years ago
EMNLP
句子编码器表示的高阶比较
论文介绍了一种称为 RSA 的技术,可以比较不同测量模式下(例如 fMRI、电生理学和行为学)的活动模式,展示了 RSA 的实用性,并通过眼动数据建立了先前未知的预先训练的语言编码器和人类处理难度之间的对应关系,展示了它作为神经模型可解释性
→
PDF
5 years ago
Prev
Next