开放生成模型在以人为本的数据科学工作中的影响:以事实核查组织为案例研究
为缓解虚假信息的负面影响,需开发自动化 AI 工具来协助事实核查人员。研究者通过应用信息行为研究方法,对欧洲中部事实核查人员进行半结构化深度访谈,通过底部构建的内容分析方法分析其信息行为和所需支持工具的要求,发现对于AI研究有实际意义的需要和问题,为此提出了一些建议。
Nov, 2022
ChatGPT, Generative Artificial Intelligence, and Natural Large Language Models for Accountable Reporting and Use Guidelines (CANGARU) initiative aims to establish consensus and guidelines for the ethical use, disclosure, and reporting of Generative AI, Generative Pre-trained Transformers, and large language models in academia.
Jul, 2023
通过调查大规模生成模型的可信度,本文构建了一张详尽的地图,涵盖了长期存在和迅速增长的与这些模型相关的威胁,包括隐私、安全、公平性和责任。同时提供实用建议和未来发展方向,以推动这些模型的可信赖部署,最终造福整个社会。
Jul, 2023
发展分析和缓解策略,提供了一个初始框架来理解模型限制、尊重隐私、保密和版权、避免抄袭和政策违规、确保应用程序提供整体利益,并透明可重现地使用人工智能,以保护研究的完整性。
Jan, 2024
通过借鉴澳大利亚两所大学的经验,本文提出了一个框架,以帮助研究机构促进和促使生成性人工智能的负责任使用。此框架目的在于将复杂的监管环境转化为基于原则的立场声明,并为培训、沟通、基础设施和流程变革提供指导。此论文强调了研究机构在这一领域采取行动的紧迫性,并建议了一个实用且可适应的框架。
Apr, 2024
开放数据和生成式人工智能的关系及其可能带来的创新潜力是尚未完全探索的领域,本文提出了一种新的开放数据第四波的情景框架,其中列举了开放数据与生成式人工智能可能相交的一些情景并探讨了实现这些情景所需的数据质量和出处方面的要求,同时指出为了充分利用生成式人工智能从开放数据中获得更多的见解,并改善开放数据获取与使用,数据持有者首先必须在五个关键领域取得进展:增加透明度与文档化、维护质量与完整性、促进互操作性和标准化、提高可访问性与易用性、解决伦理考虑。
May, 2024
人工智能生成技术和大型模型产生了现实感十足的输出,但盲目使用合成数据可能导致模型性能下降和伦理问题,因此需要平衡使用真实数据和合成数据的方法来优化结果。这篇综述研究了在生成模型中盲目整合合成数据对图像和文本模态的训练的后果,并探索了缓解这些影响的策略,旨在提供合成数据使用的全面视角,倡导平衡方法并探索在大型模型时代促进生成式人工智能技术可持续发展的实践。
May, 2024
本研究探讨了生成性人工智能(GenAI)对学术研究的影响,尤其是在定性和定量数据分析中的应用。文章提出了如何负责和伦理地使用GenAI工具的新见解,并通过案例研究揭示了该工具在各种研究方法中的应用。研究表明,尽管GenAI提升了研究生产力,但其整合带来了关于研究完整性和道德的重要挑战。
Aug, 2024
本研究关注欧洲人工智能博士生在研究中面临的挑战,调查了13个欧洲国家的28名AI博士候选人。研究发现,学生在数据集和实验资源的可获取性、复制实验的困难以及可信度和跨学科合作不足等方面遇到了挑战,急需采取负责任和可重复的研究实践,以提升AI研究的质量和可信度。
Aug, 2024