人工智能与辐射防护:革新还是更新?
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
人工智能 (AI) 和机器学习 (ML) 在开发新型防御和情报能力方面已变得越来越重要。A2I 攻击旨在欺骗和操纵 AI/ML 模型,因此 AI/ML 模型必须能够抵御这些攻击。A2IWG 旨在通过在美国国防部和情报机构之间建立协作环境,通过新的 A2I/AML 防御手段,推动确保 AI/ML 能力的研究和开发,并针对具体挑战,重点关注 AI 可信鲁棒性,AI 系统安全性和 AI/ML 架构漏洞。
Sep, 2020
人工智能是一种新兴技术,有潜力改变社会的许多方面,包括经济、医疗和交通。本文综合了有关人工智能全球影响的最新研究文献,并探讨了它的潜在益处和风险。文章强调了人工智能的影响,包括经济、伦理、社会、安全和隐私以及工作岗位的替代方面。它讨论了围绕人工智能发展存在的伦理关切,包括偏见、安全和隐私违规问题。为了确保人工智能的负责任发展和部署,政府、产业和学术界之间的合作至关重要。文章最后强调了公众参与和教育的重要性,以促进对人工智能对整个社会影响的认识和理解。
Dec, 2023
该研究旨在提高科学领域中人工智能滥用的危险,并呼吁在该领域中负责任地开发和使用人工智能。通过列举科学环境中人工智能带来的风险,并通过化学科学领域的实际滥用示例来展示这些风险,高亮显示了有效的风险管理策略的需求。为此,我们提出了一个名为 SciGuard 的系统来控制科学中人工智能模型的滥用风险,并提出了一个名为 SciMT-Safety 的红队基准来评估不同系统的安全性。我们的提议在评估中显示出最小的有害影响,并且在良性测试中不会影响性能。最后,我们强调了跨学科和合作努力来确保在科学中安全和道德地使用人工智能模型的需求。我们希望我们的研究能够激发研究人员、从业者、决策者和公众之间就科学中的人工智能的道德使用展开有建设性的讨论,以最大化利益,最小化滥用风险。
Dec, 2023
人工智能对科学研究的转变影响进行了探索,突出了人工智能革新科学家工作的十种方式,包括强大的引用工具、对研究问题的改进理解、优化研究设计、数据生成和数据转换、高级数据分析和人工智能辅助报告,并且强调了人工智能可以增强科学中的人类创造力但不能取代它。
Jul, 2023
通过认真评估和验证以确保 AI 模型达到最高的安全、有效性和功效标准,上线前以及生产使用中实施输入和输出保护措施、持续监测并追踪人群水平性能、公正性和结果传递、定期审查上线后的模型性能、教育放射科医生关于新的算法驱动发现对于 AI 在临床实践中的有效应用至关重要,强调在多个层面上合作的质量保证是重要的,从立法、临床、技术和伦理等方面,通过透明地展示 AI 遵守与其他已建立的医疗技术相同的严格的安全、有效性和功效标准,树立开发者、提供者和患者等的信心,使 AI 可靠扩展并实现其潜在的益处的愿景,本论文提出的路线图旨在加快 AI 在放射学中可部署、可靠和安全的实现。
Nov, 2023
本研究探讨基于人工智能的网络威胁检测以保护我们的现代数字生态系统,主要关注评估基于机器学习的分类器和集成模型,用于异常恶意软件检测和网络入侵检测,并探讨如何将这些模型整合到网络安全、移动安全和物联网安全的环境中。讨论重点是在企业系统和 IT 基础设施中部署和整合 AI 增强的网络安全解决方案的挑战,以及克服这些挑战的选择。最后,本文提供了未来研究方向,以进一步增强我们现代数字产业、基础设施和生态系统的安全性和韧性。
Oct, 2023
通过对 8700 万篇论文和 710 万项专利采用自然语言处理技术,研究发现 AI 在科研中的使用范围广泛,特别是自 2015 年以来增长迅速,使用 AI 的论文影响因子更高,同时也存在 AI 人才供需不平衡和种族、性别等方面的不公平问题。
Apr, 2023
本文综述了在量子计算、机器学习和人工智能交叉领域的主要思想、最近的发展以及在量子领域中研究机器学习和人工智能技术的进展,并探讨了量子机器学习和人工智能的相互增强作用以及基于量子力学概念的学习和智能问题。
Sep, 2017
该文研究了近年来机器学习对于量子技术的影响,重点介绍了科学家们利用机器学习及人工智能等方法来分析量子测量、估计量子设备的参数以及发现新的量子实验方案、协议和反馈策略等,以进一步提高量子计算、量子通信和量子模拟等方面的效果,并探讨了未来发展方向和挑战。
Aug, 2022