Nov, 2023

深度自然语言特征学习的可解释预测

TL;DR提出一种将主要复杂任务分解为一组较简单的中间子任务的通用方法,通过回答与最终目标任务相关的二进制问题来实现子任务的自然语言表示。利用一个小型 transformer 语言模型(如 BERT)根据从大型语言模型(LLM)获得的弱标签以自然语言推理(NLI)的方式进行训练生成自然语言学习特征(NLLF)向量。展示了利用 NLLF 向量可以增强任何分类器的性能,并且作为决策树等易于解释的机器学习模型的输入,能够获得较高的性能,有时超过预训练 transformer 模型。成功将该方法应用于两个完全不同的任务:检测学生对开放式数学考试问题的不一致性和筛选气候变化和农业生态学科学论文的摘要进行系统性文献综述。