探究连续学习中的样本影响力
本文研究了连续学习中数据集偏差对模型知识迁移的影响,并通过设计实验证实了标准 CL 方法会将偏差从一个任务传递到另一个任务,而提出的 Group-class Balanced Greedy Sampling(BGS)插件能有效地解决这一问题。
Mar, 2023
本文从化简计算的角度研究影响函数,讨论了少量参数下实现影响计算的假设,并证明影响值的符号可以指示训练点是记忆还是泛化,结果表明,即使是大规模的机器学习系统,影响函数也是可操作的,并且可以通过选择性地删除培训点来计算影响值,作为学习过程的一部分。
May, 2023
本文通过使用 in-context 影响性分析 few-shot in-context learning 性能,提出了基于影响的示例选择方法,该方法在 10 个 SuperGlue 任务上优于大多数基线,并且随着 k-shot 的增加而稳定扩展。分析发现最积极和最消极的示例之间的性能差距高达 22.2%。在案例研究中,我们应用影响力框架来量化 few-shot in-context learning 中的近期偏差现象。
Feb, 2023
本文研究使用任务不可知的自我影响分数对训练数据进行清洗的有效性,通过分析其在捕捉自然异常值方面的功效来调查自我影响数据清洗对机器翻译、问答和文本分类等任务的改进程度,利用自我影响计算的最新方法和自动课程学习作为基础。
Feb, 2023
在连续流数据的情景中,深度神经网络在解决多个分类任务时,面临着保持旧任务知识同时学习新任务的挑战。本研究分析了当前度量方法的局限性,发现了新任务引起的遗忘问题,并提出了一套考虑任务难度增加的新度量方法,实验证明这些度量方法能够提供有关模型在连续学习环境中平衡稳定性和可塑性的新见解。
Sep, 2023
通过考虑未来样本和注入敌对扰动,我们提出了一种新的 TF-CL 框架,并通过在输入数据和决策过程中注入敌对扰动的方法实现了这一框架,通过采用记忆管理方案和学习率调度进一步提高性能。
Dec, 2023
影响函数为我们研究 LLMs 的泛化特性提供了强大的新工具,通过使用 EK-FAC 逼近和算法技术来扩展影响函数,我们能够高效地获得有关机器学习模型中关键训练示例的见解,并揭示出泛化模式的稀疏性、尺度的增加和关键短语顺序翻转的限制.
Aug, 2023