ChatGPT 时代的科学:大语言模型和人工智能带来的挑战及应对方法
通过对 OpenAI 的 ChatGPT 进行定性研究,发现大规模语言模型的伦理风险主要包括偏见性和毒性,当前的基准测试无法解决这些问题,为了避免语言模型应用中出现伦理风险,需要制定可靠的基准测试和实施设计。
Jan, 2023
本文讨论OpenAIs ChatGPT,一种用于文本型用户请求(即聊天机器人)的生成式预训练转换器。讨论了ChatGPT及类似模型背后的历史和原则,以及其对学术界和学术研究出版的潜在影响。ChatGPT被认为是自动准备论文和其他类型学术手稿的潜在模型。此外,还讨论了可能出现的潜在伦理问题,并将其置于人工智能、机器学习和自然语言处理的更广泛进展的背景之下。
Mar, 2023
本文探讨了人工智能语言模型 ChatGPT 的伦理问题,重点是偏见和隐私方面的考虑,并提出与 ChatGPT 相关的各方实践准则以促进其伦理使用。
May, 2023
研究表明,ChatGPT和大型语言模型在科学的管理、创造和分析任务方面具有转化潜力,但需要通过积极的监管和科学教育来解决与偏见、错误信息和质量保证相关的风险。
Jun, 2023
ChatGPT, Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines (CANGARU) initiative aims to establish consensus and guidelines for the ethical use, disclosure, and reporting of Generative AI, Generative Pre-trained Transformers, and large language models in academia.
Jul, 2023
这篇论文探讨了在高等教育领域使用ChatGPT所面临的伦理挑战,并使用Arksey和O'Malley的研究框架,结合DeepMind的伦理问题框架,通过分析相关研究,明确了AI在教育中的六个主要伦理问题,强调了信息错误和人机交互方面的危害,并呼吁教育工作者开展更多的实证研究以制定可靠的伦理政策。
Nov, 2023
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
通过进行基于伦理的审计,该研究评估了8个主要的商业和开源大型语言模型(包括GPT-4)的可解释性和可信度,比较不同模型在道德推理和伦理框架上的规范价值,以探索人工智能与人类的伦理对齐问题。研究结果表明,GPT-4表现出了一个复杂的伦理框架,但同时也显示出对特定文化规范存在明显偏见的规范框架和令人不安的威权主义倾向。
Jan, 2024
该论文讨论了神经机器翻译系统中人工智能所面临的伦理挑战,强调开发人员确保公平性和文化敏感性的必要性。通过实证研究和文献综述,我们考察了神经机器翻译开发的各个阶段中涉及的伦理问题,包括数据处理、隐私、数据所有权和同意。此外,我们还研究了正义和公平问题,探讨了人工智能系统与人类之间责任的分配,并强调人类监督在维护神经机器翻译伦理标准方面的重要作用。最后,我们还从圣经角度讨论了神经机器翻译的社会影响以及开发者更广泛的伦理责任,将他们视为对自己创造物的社会后果负责的守护者。
Apr, 2024