用于鲁棒语言模型微调的自动数据整理
通过结合大型语言模型的强大能力和强大的数据中心方法,利用数据增强方法提高低数据环境中机器学习的性能,从而为数据稀缺的领域和地区扩大机器学习的应用平台。
Dec, 2023
我们提出了一种数据筛选框架,以增强大语言模型的安全对齐性,通过减少含有有害信息的数据的影响或增加在下游微调期间的越狱难度。在研究中,我们通过预训练或微调采用经过筛选的干净文本对大语言模型进行训练,观察到在安全对齐方面对有害查询的响应性明显改善,例如当使用含有 5% 有害实例的众包数据集进行预训练时,添加相同数量的经过筛选的文本显著减少了大语言模型提供有害响应的可能性,并将攻击成功率降低了 71%。我们的研究代表了缓解基于训练的越狱风险以及加固大语言模型安全使用的重要进展。
May, 2024
通过精调模型和对称相似度、LLM 评估和 Rouge-L 分数等指标的连续反馈循环来提高人工智能模型,利用金融数据集和检索增强生成技术 (RAG),证明精调模型在问题回答能力方面能够超越零 - shot LLMs 的准确性。
Jan, 2024
通过数据中心的方法,我们提出了一种能够更好地处理金融任务的金融 LLM(FLLM)模型,通过多任务提示优化来对数据进行预处理和预理解,并通过推断增强推理(AAR)自动生成训练数据,实验结果表明,我们的数据中心 FLLM 模型显著优于基于原始文本的金融 LLMs,在金融分析和解释任务上达到了最新水平,我们还开源了一个新的金融分析和解释基准,这种方法为解锁 LLMs 在复杂现实领域的潜力提供了希望。
Oct, 2023
本文提出了一种统一的数据创建流程,只需一个格式示例,适用于包括传统上问题较多的任务在内的广泛范围,通过实验证明使用指令跟随型大型语言模型创建的数据比使用人工标注的数据在分布外评估上表现更好(高达 17.5%),同时在分布内任务上保持可比较的性能,这些结果对于在现实世界中部署的自然语言处理系统的稳健性具有重要意义。
Oct, 2023
本研究探索使用精细调整的大型语言模型(LLMs)自动化系统性文献综述(SLRs),提出了将人工智能与学术研究方法相结合的重要和创新贡献。通过采用最新的精细调整方法和开源的 LLMs,我们展示了一种实用高效的自动化 SLR 过程的方法,包括知识综合的最终执行阶段。研究结果在 LLM 响应的事实准确性方面保持了很高的保真度,并通过对现有符合 PRISMA 的 SLR 的复制进行了验证。研究提出了减轻 LLM 虚幻感的解决方案,并提出了追踪 LLM 响应与信息来源的机制,从而证明了这种方法如何满足学术研究的严格需求。最终的发现证实了精细调整的 LLMs 在简化各种劳动密集型的文献综述过程方面的潜力。鉴于这种方法的潜力及其在所有研究领域的适用性,这项基础研究还呼吁更新 PRISMA 报告指南以整合 AI 驱动的过程,确保未来 SLRs 的方法透明性和可靠性。该研究拓宽了 AI 增强工具在各学术和研究领域的应用,为在日益增长的学术研究数量面前以更高效的方式进行全面准确的文献综述设立了新的标准。
Apr, 2024
通过改善数据质量,例如进行代码转换和模块化,自然语言生成代码的性能可以得到显著提升。研究结果还表明,使用较少但高质量的数据进行模型微调可以优于在原始数据集上进行微调。
Nov, 2023
利用大型语言模型的数据清洗策略,通过模拟人工注释和分类不相关文档,我们改进了 Multi-News 数据集,提高了数据集质量,而无需依赖昂贵的人工注释工作。
Apr, 2024
此研究拓展了大型语言模型(LLMs)的应用,探索了它们在数据预处理中的潜力,包括错误检测、数据插补、模式匹配和实体匹配任务。我们提出了一个基于 LLMs 的框架,用于改进模型的性能和效率。实验结果表明 LLMs 在数据预处理中具有巨大潜力。
Aug, 2023