- ICLR重新思考在微调基础模型时的无害拒绝
通过研究大型语言模型(LLMs)中微调的程度,该论文探讨了微调是否有效地缓解了不良行为,还是仅仅掩盖了它。研究采用逼真的角色扮演实验,通过观察模型在微调后的反应动态来评估结果。研究发现了一种普遍现象 —— 以推理为基础的欺骗,其中模型要么停 - 医学中大型语言模型的对抗攻击
大型语言模型(LLMs)在医疗应用中的整合为医学诊断、治疗建议和患者护理方面的进步提供了有希望的前景,然而,LLMs 对敌对攻击的易受攻击性构成了重大威胁,可能导致敏感医疗环境中的不良结果。本研究调查了 LLMs 在三个医学任务中面临的两种 - 监督式提示训练
通过使用监督性提示训练(Supervisory Prompt Training)方法,我们提出了一种新颖的方法,可以自动地生成高效的提示,从而提高大型语言模型(LLMs)的性能和减少幻觉,为传统的模型微调提供了一种高效且可扩展的替代方案。
- 交叉模态微调成功的解释: ORCA
ORCA 是一种最近的跨模态微调技术,通过训练嵌入器和微调嵌入器和模型,我们发现在跨模态微调的成功中,模型微调是最重要的组成部分之一。
- GISTEmbed: 文本嵌入微调中的引导样本选择
通过引入 GISTEmbed,在对比训练中通过导向模型增强批内负例选择,从而显著减少数据质量问题引入的噪声,并改善模型微调,从而提供了对规模较小模型的显著改进的框架,借助资源密集型的大型模型的能力,GISTEmbed 有可能革新高效且规模较 - ACL基于解析驱动的修辞控制方法的语言模型句子补全
该研究提出了一种新颖的控制文本生成算法,通过解析驱动的解码方案,在大型语言模型的句子填充上下文中强制执行特定修辞关系,无需模型微调。该方法经过了自动和人工评估的验证。
- YODA:面向语言模型的师生渐进学习
通过模仿师生教育过程进行优化,本论文引入了 YODA,一种新颖的师生渐进式学习框架,来提高模型微调的效果。实验证明,使用 YODA 的数据训练 LLaMA2 在数学推理方面可以显著提高性能,并且使用课程学习进一步提高了学习的鲁棒性。
- E^2VPT: 一种有效高效的图像提示调整方法
提出了一种有效和高效的视觉提示调整 (E^2VPT) 方法来实现大规模基于 Transformer 的模型适应,该方法通过引入一组可学习的键值提示和视觉提示分别到自注意力和输入层,以提高模型微调的效果,并设计了提示修剪程序来系统地修剪低重要 - 迈向稳健高效的持续语言学习
本文提出了一种针对任务序列的基准测试,旨在从持续学习和迁移学习的角度探讨如何快速适应新任务和模型微调策略。同时,提出了一种简单而有效的学习器,通过选择性策略初始化新模型并从过去的任务检查点中获得最大利用信息的能力。
- 模型更新过程中的灾难性遗忘
本文论述了如何在更新神经网络模型时减少深度学习模型遗忘前期知识的问题,从而减少新模型的训练成本,并介绍混合少量历史数据的数据彩排和弹性加权差异等方法以提高整体准确度。
- 最近邻机器翻译是输出投影层上的元优化器
本文分析了 $k$NN-MT 的理论和实证研究,以及针对多域实验和单词级别的分析,发现在特定情况下,结合 $k$NN-MT 和适配器的方法能够实现与在域测试集上微调相当的翻译性能,并在域外测试集上取得更好的性能,同时,优化上下文表示可以弥补 - 模型是否真的学会遵循指令?一项关于指令调整的经验研究
本文分析了模型在指令调优过程中如何利用指令,并对比了模型在不同指令下的表现。结果显示,指令调优的表现提升可以来自学习表面模式,例如识别输出格式和猜测。因此,本研究提出了迫切需要更加可靠的指令调优方法和评估。
- 深度神经网络的功能耦合水印
本文提出了一种新颖的 DNN 数字水印技术以有效防御模型精调和模型修剪等攻击。
- EMNLP针对非典型和带口音语音的参数高效 ASR 适应的残差适配器
本文阐述了在处理非典型和带有重重口音的语音时,通过添加所谓的残差适配器,可以在只更新模型的极小部分参数时实现类似于模型微调的效果,从而优化 ASR 系统的性能。
- IJCAI渐进式迁移学习
本研究提出了一种基于 Batch-related Convolutional Cell (BConv-Cell) 的 Progressive Transfer Learning (PTL) 方法,通过收集数据集的全局信息,优化预训练的 Re - AAAI人机协作快速土地覆盖制图
研究提出了一种将人类标注者引入模型微调系统中,以提供即时反馈的框架,实现了交互式查询模型预测结果、选择哪些数据标记并查看其对模型预测结果的影响等功能,该框架在各个领域都有应用潜力。
- 时间序列分类的迁移学习
本文探讨了如何将深度卷积神经网络用于时间序列分类任务,并提出了一种新的动态时间规整方法来指导迁移学习中的源数据集选择,结果表明迁移学习可以提高模型的准确性。
- AutoPruner:一种端到端可训练的过滤器剪枝方法,用于高效的深度模型推断
通过将通道修剪和模型微调合并为单个端到端可训练的系统,使用自动修剪器来找到不重要的滤波器。所生成的真二元指数代码可以安全地删除运用于微调后的模型中。相较于之前的优秀修剪算法,AutoPruner 能够显著提高性能。慢慢擦除几个弱滤波器可以防