情感分类的终身学习
本文提出一种使用变分学习算法(VRL)和基于 LB-SOINN 的记忆模块结合的方法在社交媒体上实现仇恨言论分类的终身学习,结果表明该方法比常用的终身学习技术具有更好的表现。
Jun, 2021
本文提出了一种用于神经主题建模的终身学习框架,可以连续处理文档集流并通过从多个来源的知识转移积累主题,以更好地处理稀疏数据,并通过新的选择性数据增强、共同训练和主题正则化方法来最小化灾难性遗忘,作者通过建模三个稀疏的文档集任务进行证明其提出的终身神经主题建模(LNTM)框架具有改良的表现。
Jun, 2020
该论文在小型训练数据集上提供了不同的方法来进行二进制情感分类。使用了在情感分析和类似领域中提供最先进结果的 LLMs,如 BERT,RoBERTa 和 XLNet。
Nov, 2023
本文提出了一种基于无标签数据的半监督终身语言学习方法,通过构建任务特定模块和利用无标签数据,在多项语言任务上展现了其比竞争方法更为有效的学习效果,减轻了学习模型在连续任务学习中的 “灾难性遗忘” 问题。
Nov, 2022
该论文调研了关于大型语言模型(LLMs)的持续学习方面的最新工作,提出了一种新颖的多阶段分类方案,涉及持续预训练、指令调整和对齐;对 LLMs 的持续学习与更简单的小模型的适应方法以及其他增强策略进行对比;同时,在讨论基准和评估的基础上,提出了几个挑战和未来工作方向。
Feb, 2024
本研究提出了一种基于终身学习和多语言知识转移的新型假新闻检测方法,该方法利用传统特征提取器和深度自然语言处理模型结合多层感知器分类器,可以在英语和西班牙语数据集上提高假新闻分类任务的性能。
May, 2022
本文通过探讨 NLP 中的各种任务,分析了现有神经网络模型中的 CL 问题,并对现有的 CL 评估方法和数据集进行了批判性评论,最后展望了未来的研究方向。
Dec, 2020
本文提出了一个实验设置,以实现对单个任务的自动语音识别进行在线持续学习。 通过使用在线梯度附着内存方法对端到端语音识别模型进行增量模型更新,并结合有选择性的采样策略进行在线持续学习,可以保持类似于重新训练模型的准确性,同时需要较低的计算成本。作者也使用了自监督学习功能(SSL)特征进行了验证。
Jul, 2022
本文研究了一种称为领域增量学习(DIL)的特定连续学习(CL)环境下,一系列方面情感分类(ASC)任务的 CL。 该论文提出了一种名为 CLASSIC 的新模型,具有对比连续学习方法,使得在测试中不需要任务 ID,能够实现跨任务的知识转移和知识蒸馏。 实验结果表明 CLASSIC 的高效性。
Dec, 2021