本文旨在探究如何利用上下文学习的方法来提高实时自适应机器翻译的质量,并研究将强编码器 - 解码器模型和模糊匹配相结合以进一步提高翻译质量的方法。已在五个大不同的语言对上展开了实验。
Jan, 2023
本文提出了一个名为 MAPS 框架,通过多方面提示和选择的方式,使用大型语言模型分析源文本获取三个与翻译相关的知识方面:关键词、主题和相关演示,并通过质量估计的机制过滤噪音和无用的知识来指导翻译过程,实验证明 MAPS 在最新的 WMT22 测试集上对八个翻译方向都有显著和一致的改进,为解决翻译中的幻觉错误提供了关键的知识。
May, 2023
通过研究生成式大型语言模型在机器翻译中的性能,我们发现多语言模型(如 PaLM)在人工翻译输出方面表现出类似人类的水平,能够根据样式指南和语言要求优化所需的翻译细微差别,并在处理和应用提示上表现出色。我们还针对流行的语言模型作为机器翻译工具的错误和限制进行了分类和提出了设计提示进行上下文学习的方法。通过改进评估指标的准确性和可靠性,我们的研究旨在促进生成式大型语言模型在机器翻译中的进步。
Jan, 2024
使用 LLM-in-the-loop 人工智能协作框架进行主题分析,能够在减少人力和时间需求的同时,获得与人工编码者相似的编码质量。
Oct, 2023
本研究探讨了大型语言模型(LLM)在改进基于流水线的对话代理中的能力,并通过私人银行业务的实例证明了 LLMs 的潜力和公司采用混合方法的好处。
Sep, 2023
本文系统地研究了大型语言模型在多语言机器翻译中的优势和挑战,并在 102 种语言上评估了 XGLM、OPT、BLOOMZ 和 ChatGPT 四种常见模型的性能。在进一步分析中,本文发现大型语言模型在多语言机器翻译中具有一些新的工作方式。
Apr, 2023
通过提示工程,大型语言模型(LLMs)展示了在上下文学习中的新兴能力。最近在大规模生成模型方面的进展进一步扩展了它们在实际语言应用中的使用。然而,在自然语言理解和问题回答方面,提高 LLMs 的泛化能力和准确性的关键挑战仍未得到充分探索。
Dec, 2023
通过上下文学习,我们提出了一种上下文感知提示方法(CAP),使得大型语言模型能够通过上下文学习生成更准确、连贯、一致的翻译。CAP 结合多级注意力,在当前句子中选择与之最相关的句子作为上下文,从这些句子中生成一个摘要。随后,从数据存储中检索与摘要最相似的句子作为演示,有效地指导大型语言模型生成连贯一致的翻译。我们在各种文档级机器翻译任务中进行了大量的实验,结果表明我们的方法在零代词翻译(ZPT)和文学翻译任务中特别有效。
Jun, 2024
采用人在循环提示工程方法与 GPT-4-Turbo 进行学生之间的协同话语的总结和分类的初步结果表明 GPT-4-Turbo 可能能够以与人类相媲美的方式表征学生的协同学习,并且我们的方法值得进一步研究。
May, 2024
本文探索了使用大型语言模型作为 HRI 的 0 模型的潜力,并在三个社交数据集上进行了实验,结果显示 LLMs 能够实现与定制模型相当的性能,同时还讨论了当前的限制。基于我们的发现,我们展示了 LLM 人类模型如何集成到社交机器人的规划过程中并应用于 HRI 场景。我们的结果表明 LLMs 为 HRI 的人类建模提供了一种有前途但不完整的方法。
Mar, 2023