利用语义启动测试探究 BERT 对词汇线索的敏感性
本文首次定量分析各大语境词汇语义任务中正在测试的语境词交互。结果表明,与人类在这些任务中完全不同,现有数据集在测试预训练上下文化模型时存在极端偏差,需要更好地理解模型与人类之间的差距。本文提出了一种框架以更好地理解和控制这些偏差,以进行模型解释和未来任务设计。
Dec, 2021
通过研究 BERT 中的单词上下文含义的量化,我们展示了预训练语言模型如何解释单词在上下文中的重要性,结果显示顶层语义表示对于任务的推断非常准确,底层语义表示更具可转移性。
Apr, 2020
本文主要探讨了一种分析语境对相似词人类感知影响的方法,使用多种方式计算 BERT 生成的双向编码器表示法的两个嵌入向量之间的距离,研究组在 SemEval 2020 的任务三中赢得了芬兰语语言赛道的第一名和英语语言赛道的第二名。
May, 2020
本研究针对 6 种不同语言和 5 种不同词汇任务,对单语和多语言源 LM、无上下文编码和有上下文编码、特殊标记的包含和分层平均等不同词汇知识提取策略的影响进行了系统的实证分析,并验证了较低变压器层携带更多类型级词汇知识的主张。
Oct, 2020
本论文研究了在大规模无监督文本语料库上预训练的语言模型,结合信息检索系统以纯无监督方式来增强预训练语言模型,并成功提高了其零样本缺失式问答系统的性能,尤其通过使用不同的分隔符处理查询和上下文,让 BERT 能够更好的判断是否匹配上下文从而增加准确性和鲁棒性。
May, 2020
本研究通过让模型处理带有分散注意力内容的填空任务,检验了预训练语言模型利用关键上下文信息的能力;研究结果表明,模型往往只是依靠表面上与上下文有关的信息进行预测,而对于上下文语境的理解能力不及预期。
Sep, 2021
本研究通过对 BERT 模型进行细调过程中,考察词汇类别对注意力分数的影响,进一步验证了重点语义信息的下游任务中注意力分数主要集中在内容词上的假设,并揭示了 BERT 层对特定词汇类别具有一致偏好的存在。
Mar, 2024
使用来自 3 个心理语言学实验的刺激,发现当高度异常的单词与前面的语境或最有可能的延续相关时,8 个现代转换器语言模型(BERT、ALBERT、RoBERTa、XLM-R、GPT-2、GPT-Neo、GPT-J 和 XGLM)也几乎总是表现出类似的加工优势,这个现象对于我们对于人类语言理解和语言模型预测的理解都有重要意义。
Nov, 2022
本文使用预训练的 BERT 模型来处理表格检索任务,研究如何编码表格内容以及如何将其他文献中的特征与 BERT 模型联合训练,实验表明这一方法在公共数据集上表现卓越。
May, 2020
本文研究了语境化单词嵌入,并集中讨论了 BERT 这一深度神经网络,该网络产生了语境化的单词嵌入并在多个语义任务中创下了最好的记录,并研究了其嵌入空间的语义一致性。该文章表明,BERT 具有一定的语义一致性,但并未完全符合语义向量空间的自然期望,尤其是发现单词出现在的句子位置虽然不具含义,但在单词嵌入中留下了明显的痕迹,破坏了相似性关系。
Nov, 2019