BriefGPT.xyz
Ask
alpha
关键词
pre-trained masked language models
搜索结果 - 3
AAAI
SimCLAD: 简单的强化对比学习架构用于缩略语消歧
本文提出了一种用于首字母缩略词消歧的简单对比学习框架 (SimCLAD) 方法,强调了对称性,并通过学习真实含义和歧义短语之间的短语级对比分布来提高预训练模型的泛化能力,并在英文科学文献的首字母缩略词消歧任务上取得了比其他竞争性最先进的方法
→
PDF
3 years ago
ACL
知识性还是教育性猜测?重新审视语言模型作为知识库
本文对预训练掩码语言模型(MLMs)在不同抽取范式下的预测机制进行了研究,发现之前的良好表现主要归因于偏见提示和外部环境的贡献。实体类型引导和正确答案泄露是知识预测的改进方向。这些发现揭示了 MLMs 的预测机制,同时质疑了现有 MLMs
→
PDF
3 years ago
EMNLP
BERT-ATTACK: 使用 BERT 对抗 BERT 的对抗攻击
本文提出了使用 BERT 预训练模型的高质量有效的方法 BERT-Attack,用于生成对抗样本并在对下游任务的深度神经模型进行攻击。在成功率和扰动百分比方面,我们的方法优于最先进的攻击策略,而生成的对抗样本则流畅且在语义上保留,且计算成本
→
PDF
4 years ago
Prev
Next