Oct, 2022

使用 Transformer 语言模型对社会政治文本进行零样本排序以减少读取时间

TL;DR使用基于 Transformer 的 DeBERTa 模型将分类问题转化为蕴含问题,使得排名最高的文档可以被视为正分类文档,从而缩短信息抽取过程中的阅读时间,并发现一定的召回率下,使用声明性形式的类别标签作为查询可以优于使用字典定义的类别标签。同时研究表明,随着主题范围的扩大,应阅读的文档百分比会增加。