ChatGPT 中的语言歧义分析
本研究旨在分析和讨论 ChatGPT 和 Gemini 等模型中的语言歧义,关注巴西葡萄牙语中的语义、句法和词汇歧义。通过创建一个包含 120 个歧义和非歧义句子的语料库,进行分类、解释和消除歧义。结果经过定性分析和基于回答准确性的定量评估,证明了即使是像 ChatGPT 和 Gemini 这样先进的模型在回答中也存在错误和不足,解释通常是不一致的。此外,准确性达到了 49.58%的峰值,表明有必要进行有监督学习的描述性研究。
Apr, 2024
本文比较了 ChatGPT 在自然语言处理领域中,在机器翻译、文本摘要、问答和语言生成等方面的表现,并使用自由质量(SQ)分数与每个类别中的主要算法进行了比较。通过有效的验证策略,安全性和可大规模采用 LLM 的示例总结了该论文的观点和结果。
Mar, 2023
通过 12 个预注册的实验,我们发现像 ChatGPT 这样的运用大型语言模型的聊天机器人能够在很大程度上模仿人类语言处理,但是他们在一些方面与人类处理方式存在差异,并且可能通过 Transformer 架构来解释这些差异。
Mar, 2023
本文讨论 OpenAIs ChatGPT,一种用于文本型用户请求(即聊天机器人)的生成式预训练转换器。讨论了 ChatGPT 及类似模型背后的历史和原则,以及其对学术界和学术研究出版的潜在影响。ChatGPT 被认为是自动准备论文和其他类型学术手稿的潜在模型。此外,还讨论了可能出现的潜在伦理问题,并将其置于人工智能、机器学习和自然语言处理的更广泛进展的背景之下。
Mar, 2023
ChatGPT 是人工智能领域中强大的工具,在聊天机器人、内容生成、语言翻译、个性化推荐和医疗诊断和治疗等方面已成功应用。然而,ChatGPT 存在着一些局限性,例如它倾向于产生有偏见的回应和可能使有害的语言模式得以传承。本文全面概述了 ChatGPT 的应用、优点和局限性,强调了在现实场景中使用这一强大工具时候伦理考虑的重要性。最后,本文提供了有关提示工程技术的见解,从而为关于人工智能及其对视觉和自然语言处理领域的影响的持续讨论做出了贡献。
Mar, 2023
本研究分析了 ChatGPT 在不同对话问答语料库中生成的回答,并使用 BERT 相似度得分进行比较,以获取自然语言推理(NLI)标签。该研究还确定了 ChatGPT 提供错误答案的情况,提供了有关该模型可能存在错误的领域的见解。通过评估分数,比较 GPT-3 和 GPT-4 的整体性能。
Apr, 2023
在本文中,研究人员探索了 ChatGPT 的新颖知识,在融合现有的自然语言处理技术时,如早期或晚期融合,增强了情感计算、自杀倾向检测和大五人格评估等问题的现有技术的能力。
Jul, 2023
本研究探讨了 ChatGPT 在话语语篇分析中的能力,特别是话题分割、话语关系识别和话语分析三个任务的能力。结合创新的思维链(COT)方法,发现 ChatGPT 对于话题分割有较好的表现,但在话语关系识别和话语分析等较难的任务中有待提高。
May, 2023
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
使用大型语言模型(LLM)的自动情感分析在学术研究和工业应用中越来越普遍,但在处理模糊或讽刺文本的性能评估和验证方面仍不够完善。本研究构建了细致和模糊的场景,将其翻译成 10 种语言,并使用流行的 LLM 预测其关联的情感。结果经过后续人为响应的验证。ChatGPT 和 Gemini 通常能够很好地处理模糊场景,但我们也发现了在不同模型和评估的人类语言之间存在显著偏见和不一致的性能。本研究提供了自动情感分析评估的标准化方法,并呼吁进一步改进算法和其基础数据,以提高其性能、可解释性和适用性。
Jan, 2024