- ACLFavi-Score: 自动生成人工智能评估中的偏袒度量
研究探讨了用于生成输出评估的指标,发现大多数指标存在有利于特定文本生成系统的倾向性,并提出了一种新的评估指标 Favi-Score,该指标能够准确测量这种倾向性。
- 前沿 AI 伦理:预测和评估生成智能带来的社会影响
分析和讨论生成智能系统的科学成就、对社会的潜在影响以及对个体提出的规范问题,着重关注多模态大型语言模型在复杂的人工智能系统中以无监督的方式执行行动的可能性。
- AI 评估与红队行动的安全港湾
对生成式人工智能系统进行独立评估和红队测试对于识别风险至关重要,但主要人工智能公司用于阻止模型滥用的服务条款和执法策略对善意安全评估存在不利因素,因此一些研究人员担心进行此类研究或公开发现将导致账户暂停或法律报复。我们提议重要人工智能开发者 - 我希望这是一个助手,而不是教师:远程学习学生对人工智能数字助理的客户视角要求
通过采用混合方法,研究了数名在线和远程学习学生对假想智能助手(AIDA)设计的认知。所有参与者对使用此类人工智能工具在学习过程中的实用性达成了一致,同时还提到了实时帮助和问题解答、学术任务支持、个性化和可访问性,以及情感和社交支持等方面的优 - 评估人工智能影响评估:一项课堂研究
通过课堂调查研究,作者发现 AI 影响评估(AIIAs)对参与者对生成型人工智能系统的潜在风险以及 AI 专家在解决潜在危害中所承担责任的感知具有影响,并对现有的 AIIA 工具进行了限制性分析,提出了未来发展和验证 AIIAs 的建议。
- 脑解码:朝着实时重建视觉感知迈进
通过基于高时间分辨率的 MEG 测量脑活动,利用生成型和基础型人工智能系统解码大脑活动,特别是通过功能性磁共振成像 (fMRI) 解码视觉感知,从而在实时应用方面取得了重大进展。
- 生成型 AI 系统的社会技术安全评估
生成型人工智能系统的安全评估需要考虑风险,本文提出了一个三层框架来评估这些风险,结合体系安全原则并考虑人类互动和系统影响作为额外的评估层,同时分析现有的安全评估存在的几个问题并提出解决办法,以此实现生成型人工智能系统的全面安全评估。
- SimplyRetrieve: 一个私密且轻量级的以检索为中心的生成人工智能工具
基于大语言模型(LLM)的生成型人工智能系统近年来取得了显著进展。集成知识检索架构可以无需额外模型微调,实现私有数据与公开可用的生成型人工智能系统的无缝集成。此外,提出的检索中心化生成(RCG)方法将 LLMs 和检索器在上下文解释和知识记 - AI 生成图像:‘现成品’的新时代
本文旨在研究生成 AI 系统如何创造艺术品,探讨 AI 系统生成的图像是否被视作艺术品,分析 AI 生成的图像在哲学上的地位并通过视觉属性展现作为 “就绪品” 的艺术性。
- ICMLAI 和欧盟数字市场法案:应对生成式人工智能的规模问题
AI 技术快速发展的同时,对数字市场巨头风险的关注也在增加。欧盟的数字市场法案 (DMA) 旨在应对这些风险,但目前的框架可能还不足以覆盖可能成为 AI 服务入口的生成式 AI 系统。本文主张将某些 AI 软件作为核心平台服务集成,并将某些 - 评估生成式人工智能系统对系统和社会的社会影响
本文提出了评估生成 AI 系统社会影响的标准方法与分类,并基于技术系统和社会分别探讨了七种与五个大类共计 21 个社会影响类别,并提出了对现有评估的限制进行分析的建议,并为 AI 研究社区建立了一个评估存储库来贡献现有的评估。
- 生成式人工智能的发展路径:方法与考虑
提出了一个六级访问框架,从全闭合到全开放,各级之间可以被视为梯度选项,阐述了全球发电 AI 系统的释放方法、趋势和风险控制等问题。