DuanzAI:带有幽默理解提示的俚语增强语言模型
使用生成型的大型语言模型,在中医问答领域表现令人不满意,本研究引入了一个专门为中医问答设计的对话模型 MedChatZH,该模型在中医经典著作上进行预训练,并结合医学指南数据进行精细调优,在真实的医学对话数据集上胜过了几个基线模型。我们在链接上发布了我们的模型、代码和数据集,以促进传统中医和大型语言模型领域的进一步研究。
Sep, 2023
本研究提出了一种由大型语言模型(LLM)驱动的技术助手 ——HuixiangDou。该系统旨在通过为与开源算法项目相关的问题提供深入的回答来帮助算法开发人员,例如来自 OpenMMLab 的计算机视觉和深度学习项目。我们进一步探索了将该助手集成到即时通讯工具(如微信和 Lark)的群聊中的方法。通过多次迭代的改进和试验,我们开发了一种复杂的技术聊天助手,能够有效地回答用户的技术问题而不会引起消息泛滥。本文的贡献包括:1)为群聊场景设计了一种算法流程;2)验证了 text2vec 在任务拒绝方面的可靠性表现;3)确定了技术助手类产品中 LLMs 的三个关键要求,即得分能力、上下文学习和长时间上下文。我们已经将软件和源代码发布在此 https URL 上,以便未来的研究和应用。HuixiangDou 适用于即时通讯工具中的任何群聊。
Jan, 2024
提出了一个新的基准 SLANG,评估语言模型对于理解互联网上新兴语言趋势的能力,并提出了基于因果推断的方法 FOCUS,它通过研究语言变化的真实例子来增强语言模型对于新短语和用法模式的理解。实证分析表明,基于因果推断的方法在解释互联网俚语和表情包时,准确性和相关性方面优于传统模型。
Jan, 2024
该研究报告通过使用不同类型的语言模型并利用数据增强技术,提出了一种结合方法,旨在改善南斯拉夫南方微方言上大规模语言模型(LLMs)的通识推理能力评估,通过实验证明数据增强技术能够显著提升开源型模型类别在三个南斯拉夫方言(Chakavian、Cherkano 和 Torlak)的测试数据集上的性能,突出了数据增强的实际效用和 LLMs 在处理非标准方言方面的潜力以推进低资源和方言环境下的自然语言理解。
Apr, 2024
该研究论文介绍了一个基于中医的大型语言模型,通过从事前训练到强化学习与人类反馈(RLHF)的整个训练流程,以及引入一个包含 7 万个真实医患对话的中文多轮医疗对话数据集 CMtMedQA,该模型在多个方面超越了基线模型,并且通过对该模型的进一步改进来提高其指令遵循能力和安全性。
Aug, 2023
本文旨在测试自然语言生成(NLG)在幽默方面的能力,我们使用各种方法进行生成,包括从头开始训练 Seq2seq、微调中型 PLMs 和大型 PLMs(有和无微调)。我们使用一些由数字化的中国相声剧本组成的新数据集对这些方法进行了基准测试,并进行了人员评估,表明大规模预训练大大提高了相声生成的质量,但我们得出结论:幽默生成目前还处于起步阶段。
Jul, 2022
ACLUE 是一个评估基准,通过评估八个现代语言模型在理解古代汉语方面的能力,观察到它们在现代汉语和古代汉语之间的性能存在显著差异,其中 ChatGLM2 表现最出色,获得了平均 37.4% 的得分。
Oct, 2023
本文介绍了 ChatPLUG:一个用于数字人类应用的中文开放域对话系统,通过互联网增强的指导微调在统一的互联网增强格式中针对广泛的对话任务。在多个任务上进行指导微调,集成外部知识的互联网搜索,从而表现出良好的多任务泛化性能,并在真实世界应用中展示出卓越的性能。
Apr, 2023
本文介绍了 DuTongChuan,一种用于同传的新颖上下文感知的翻译模型,它能够不断阅读自动语音识别模型中的流文本并同时确定信息单元的边界,进而使用两种简单而有效的解码策略:部分解码和上下文感知解码将检测到的信息单元翻译为流畅的翻译实现语音到语音的实时翻译,具有优秀的语篇连贯性和较短的延迟,并在百度平台的各种产品中成功运用和释放为服务。
Jul, 2019
通过影视字幕构建了一个用于评估俚语处理的数据集,展示了该数据集在俚语检测和识别地域和历史俚语来源方面的有效性,同时揭示了大型语言模型在该数据集上的性能和微调的潜力。
Apr, 2024