大型语言模型的社交技能训练
在大型语言模型(LLMs)中,介绍了 “社交学习” 的框架,其中模型通过自然语言以隐私保护的方式共享知识。我们提出并评估了两种 LLMs 之间的知识传递方法,第一种情景中,模型生成抽象提示用于教授任务,而我们的第二种方法中,模型通过生成合成示例来传递知识。我们在多个数据集上评估了这些方法,并以记忆作为隐私损失的代理进行了量化。这些受社交学习启发的技术得到了有希望的结果,原始数据的记忆化较低。特别是,我们表明使用这些方法的性能与使用原始标签和提示的结果相当。我们的工作证明了社交学习在 LLMs 中的可行性,建立了基础方法,并突出了几个尚未开发的领域的重要性。
Dec, 2023
通过对大型语言模型在社交机器人中的潜力进行分析,本研究侧重于教育、医疗和娱乐等社交机器人的应用,并对这些语言模型如何安全地接受培训以 “理解” 社会规范和问题进行了研究,以期为其他有兴趣将语言模型融入机器人的研究人员提供有益指导。
Mar, 2024
本文讨论了构建具有社交交互能力的具体化自主智能体是人工智能面临的主要挑战之一,并指出了目前在具体化语言使用方面的研究方向存在的局限性。作者认为,实现人类水平的人工智能需要更广泛的关键社交技能。最后,通过实验研究了一种近期最先进的深度强化学习方法的局限性。
Apr, 2021
在本文中,我们对 LLMs 在 SAR 技术中的应用进行了简要调查,并讨论了将 LLMs 应用于 SAR 的三个主要技术挑战(自然语言对话、多模态理解和 LLMs 作为机器人策略)的潜力和风险。
Apr, 2024
在第二语言学习中,基于情景的对话实践对于语言学习者实现口语流利至关重要,本文提出了基于情境的对话模型,通过在大型语言模型(LLMs)上进行微调,旨在结合开放式对话的吸引力和基于情景任务的集中练习。利用 LLMs 的泛化能力,我们证明了我们的情境对话模型在训练话题和未遇到的话题上都有效,为支持广泛的会话主题提供了有希望的解决方案。此外,对话系统领域的研究仍缺乏可靠的自动评估指标,引发人工评估作为黄金标准(Smith 等,2022)的问题,而且通常成本较高。为了解决现有评估方法的局限性,我们提出了一种新颖的自动评估方法,利用经过微调的 LLMs 来高效而有效地评估情境对话模型的性能。
Mar, 2024
大型语言模型 (LLMs) 在自然语言处理 (NLP) 领域产生了巨大的革命,提供了引人注目的功能,得到了广泛的使用。然而,现有的 LLMs 与用户之间的交互范式存在着局限性、定制能力不足或者缺乏持续学习的问题。为了克服这些挑战,本文介绍了一种新的交互范式 -' 使用外部交互进行在线训练 ',通过与 AI 代理或在线 / 离线知识库等外部交互,将持续实时模型更新的好处与个性化定制的灵活性相结合。
Mar, 2024
通过设计和添加内心独白,通过提示工程和上下文学习的方式,使大型语言模型(LLMs)更具人类形象和积极主动的对话能力,并构建评估模型对话生成能力的综合性基准 CSkills,并实验证明了所提出的 CSIM 策略在自动评估和人工评估上优于基准模型。
Nov, 2023
当代社交媒体领域中,用户表达负面情绪的数量惊人,其中一部分表现为强烈的自杀意向。因此,需要训练有素的心理咨询师进行有效的心理干预。然而,这些专业人员的培养通常是一项重要但耗时的任务,因此,调动非专业人员或志愿者在这方面的能力成为一个紧迫的问题。这篇论文介绍了一种基于大型语言模型构建的新模型,完全协助非专业人员在在线用户对话中提供心理干预。该框架使得以有意义的方式利用非专业心理咨询师的能力成为可能。通过对十名专业心理咨询师的综合研究,评估了该系统在五个关键维度上的效果。研究结果证实我们的系统能够相对准确地分析患者的问题并提供专业水平的策略建议,从而增强非专业人员的支持。这项研究为大型语言模型在心理学领域的应用提供了有力的验证,并为基于社区的心理健康支持奠定了基础。
Aug, 2023
使用具有固定标记预算的新框架,通过学习一组语言模型的技能顺序,从而在任务间提升下游模型性能,减少数据训练量,并引入一种在线数据采样算法 Skill-It,以实现连续预训练和微调中多个技能的高效学习。
Jul, 2023