- SSLCL: 一个高效的模型无关的自监督对比学习框架,用于对话情感识别
利用监督对比学习的高效模型无关框架 SSLCL,通过将离散标签转化为密集嵌入,同时最大化样本特征与其对应的真实标签嵌入的相似性,并最小化样本特征与不同类别标签嵌入的相似性,从而实现在情感识别任务中提高性能的目标。
- 告诉模型去关注什么:通过小型解释注释来提高方面情感分类的可解释性
本文提出了一种基于梯度的 IAGA 框架,通过少量解释注释来解释复杂神经网络的 ABSC 模型,以提高模型的可解释性,性能和鲁棒性。
- 差分蕴涵用于参数高效的少样本学习
本论文提出了一种新的技术,通过采用中间训练和可区分化优化的方式,在限制模型参数时实现 few-shot 学习的参数效率。作者通过实验量化了参数效率和性能在 few-shot 领域的权衡,并提出了一个简单的模型无关方法。
- 基础模型偏置项差分隐私微调
提出了一种不修改网络架构、参数高效、计算高效的模型无关机制 DP-BiTFiT,实现了对长序列和高分辨率图片的隐私保护微调,达到了 DP 算法的最高精度及标准微调的效率,其速度和内存使用量是 DP full fine-tuning 的 2- - WSDM数据流的差分隐私集成分类器
该论文提出了一种基于隐私保护的集成学习方法,旨在应对连续数据流且涉及数据漂移的场景,该方法可以应对不断增长的数据流以及模型的升级更新,并适用于不同类型的预训练隐私分类 / 回归模型。在实际和模拟数据集上进行的实验表明,在不同的隐私、概念漂移 - ECCV通过高效过渡矩阵估计学习,以对抗标签错误纠正
本研究提出一种学习时利用标签转移矩阵的方法,通过增加分类器的怀疑性来缓解标签错误纠正问题,并通过引入双头结构实现单个反向传播内每次迭代中高效地估计标签转移矩阵,结果表明该方法具有比现有方法更好的训练效率及相当或更好的准确性。
- AAAI黑盒模型序列算法资源的分摊生成
本文提出了一种基于随机控制的方法来生成序列 ARs, 支持模型无关性和针对多个数据点的计算,可以实现多个 Desiderata,通过实际数据集的测试证明了方法的效果。
- MKD:一种预训练语言模型的多任务知识蒸馏方法
本文提出了一种基于多任务学习的知识蒸馏方法,用于训练轻量级的预训练模型,该方法适用于不同的教师模型体系结构,并且相较于传统上基于 LSTM 的方法,具有更好的语言表达能力和更快的推理速度。
- 正则化黑盒模型以提高可解释性
ExpO 是一种可解释的混合方法,通过训练时对特定正则化器进行操作,改善了基于后处理的解释系统的缺陷,提高了其解释质量和可用性。