生成人工智能对信息获取的社会技术影响
分析和讨论生成智能系统的科学成就、对社会的潜在影响以及对个体提出的规范问题,着重关注多模态大型语言模型在复杂的人工智能系统中以无监督的方式执行行动的可能性。
Apr, 2024
本文研究探讨了生成 AI 技术中,AI 加入真实数据之后可能会产生回馈循环并导致未来模型的降级和多样性降低的情况,从而产生社会影响。同时,对于如何缓解这种回馈循环以及降低未来技术模型降级的影响也提出了相关问题。
Jun, 2023
通过引入贝叶斯框架,研究了与生成人工智能合作时可能出现的一种情况:用户可能会获得生产力的提高,但人工智能生成的内容可能无法完全符合他们的偏好。我们揭示了个体决策与人工智能训练之间的相互作用可能导致社会性挑战,输出结果可能变得更加同质化,特别是当人工智能基于人工智能生成的内容进行训练时。解决同质化和偏见问题的方法是改进人工智能与人类的交互,实现个性化输出而不损失生产力。
Sep, 2023
该论文采用一种方法来研究生成式 AI 工具对社会的影响,主要关注 ChatGPT 这一案例,评估其对社会各个领域的潜在影响,并阐述综合文献回顾的研究结果,包括正面效应、负面效应、新兴趋势和机遇领域,该分析旨在提供深入讨论的见解,从而激励政策、规范和负责任的发展实践,促进以人为中心的人工智能。
Mar, 2024
2023-2024 学年,ChatGPT 的广泛普及将对学术诚信产生影响,高中学生中 77% 报告过使用人工智能驱动的写作辅助工具从事不诚实行为,这种被 Chan(arXiv:2306.03358v2)称为 'AI-giarism' 的 AI 驱动写作辅助工具将使抄袭行为更加易于获取且难以检测,此外,这些担忧也引发了关于这一技术革命性质的更广泛问题,包括自主性、数据隐私、版权和公平性。本文旨在从社会公正的角度探讨生成型人工智能,研究这些模型的训练、固有的偏见以及检测人工智能生成写作中的潜在不公正之处。
Aug, 2023
通过分析 378 个伦理问题的 19 个主题领域,本研究综述了生成人工智能伦理问题的分类和排名,主要关注大型语言模型和图像生成模型,为学者、从业人员和政策制定者提供了关于公平性、安全性、有害内容、幻觉、隐私、交互风险、安全性、社会影响等伦理争论的全面概述,并讨论了结果、评估了文献中的不平衡现象,并探讨了未经证实的风险场景。
Feb, 2024
本文提出了评估生成 AI 系统社会影响的标准方法与分类,并基于技术系统和社会分别探讨了七种与五个大类共计 21 个社会影响类别,并提出了对现有评估的限制进行分析的建议,并为 AI 研究社区建立了一个评估存储库来贡献现有的评估。
Jun, 2023
该研究针对生成式人工智能应用于医学成像和文本分析时带来的伦理问题、法律问题和算法挑战进行了深入研究,并提出了负责任的解决方案和强有力的监管框架,以确保生成式人工智能在医疗领域的道德和负责任的实施。
Jun, 2024
本研究探讨生成型人工智能(AI)如何改变市场营销、产品开发和研究,讨论了该领域的最新发展、易于使用的资源以及道德和社会危害。除了解决偏见和虚假信息等问题的缓解技术外,辩论强调通过持续的利益相关者沟通和道德原则实现负责任的发展的重要性。
Nov, 2023
本文探讨了与人工智能进行的教育交流,不是作为提示和回应的序列,而是作为对话和探索的社交过程,在其中,学习者在互联网工具和资源的动态计算介质中不断与 AI 语言模型交谈。本文强调了构建用于教育的社交生成 AI 是需要开发强大的 AI 系统的,这些系统可以与人类以及彼此对话,构建如知识地图之类的外部表征,访问和贡献于互联网资源,并担任教师、学习者、导师和指南的角色。但人们也需要考虑将如何设计和约束这些社交生成 AI,以确保其意识到其限制、对学习者和互联网的尊重并尊重人类教师和专家的完整性的问题。
Jun, 2023