ChatGPT (Feb 13 Version) 是一个中文房间
本文采用定量方法,展示 ChatGPT 在回答涉及本科计算机科学课程相关主题的不同类型的问题时高度不可靠,揭示学生盲目依赖 ChatGPT 完成作业和考试可能面临自我破坏。同时提出对学生和教师的建设性建议。
Apr, 2023
本研究使用 ChatGPT 这一语言模型探讨了如何利用其在软件工程中辅助完成常见任务,研究结果显示 ChatGPT 对许多任务均有不错的表现,但仍存在一些任务不适用。
May, 2023
本文探讨了 ChatGPT 在科学写作、数学、教育、编程和医疗保健等不同领域作为自动化助手的能力,重点介绍了其增强生产力、简化解决问题流程和提高写作风格的潜力以及与过度依赖 ChatGPT 可能带来的潜在风险,而作者提出了使用流程建议,对输出进行独立验证,并建议专家使用该工具。
Jun, 2023
本文旨在评估人工智能工具 ChatGPT 在计算机工程学科中的表现;研究发现它可以回答关于概念的问题,但由于它是一种文字工具,所以无法处理需要用到图表和手工实验的问题。
Mar, 2023
本研究探讨了 OpenAI 开发的 ChatGPT 技术在业务、教育等 10 个领域的应用、机会和威胁,介绍了 ChatGPT 的技术特点,以及对 GPT-3.5 和 GPT-4 的实验研究结果。虽然 ChatGPT 的生成自然语言对话的能力优异,但是它没有很高的理解力、同理心和创造力,不能在大多数情况下完全取代人类。
Apr, 2023
该研究探索了 ChatGPT 在处理古代汉语方面的能力,通过翻译古代汉语为现代汉语和识别古代汉语姓名的两个任务来评估其对古代汉语的理解能力。研究发现:ChatGPT 在古代汉语方面的熟练程度尚未达到令人满意的水平,并且在输入三个上下文句子时,在古代汉语到现代汉语的翻译上表现最佳。为了帮助复现我们的工作,我们展示了本研究中使用的 Python 代码片段。
Dec, 2023
通过 12 个预注册的实验,我们发现像 ChatGPT 这样的运用大型语言模型的聊天机器人能够在很大程度上模仿人类语言处理,但是他们在一些方面与人类处理方式存在差异,并且可能通过 Transformer 架构来解释这些差异。
Mar, 2023
我们调查了 ChatGPT 的可靠性和逻辑一致性。发现虽然 ChatGPT 在语言理解能力方面有所提高,但它仍经常无法生成逻辑上正确的预测;因此,我们得出结论:在没有充分人工检查的情况下,在真实世界的风险敏感领域中使用 ChatGPT 需要进一步考虑。
Mar, 2023
本文通过分析超过 30 万条推文和 150 多篇学术论文,探究了 OpenAI 开发的聊天机器人 ChatGPT 在社交网络和学术领域中的感知和讨论,发现 ChatGPT 在社交网络中普遍被认为是高质量的,但随着时间的推移,快乐情绪略有下降。在学术论文中,ChatGPT 被认为是道德伦理和教育领域中伦理威胁和机会的同时存在,同时被认为在医疗领域具有重大机遇,聚焦当前的 ChatGPT 感知对未来的发展具有启示作用。
Feb, 2023
ChatGPT 的词表知识和 AI 工具的潜在应用进行了评估,发现 ChatGPT 在词典和《堂吉诃德》中只能识别 80%的词汇,其中一些还有错误的意义。
Sep, 2023