自动驾驶汽车中人工智能和学习算法的进化轨迹及其在车辆自主决策能力塑造中的基础原则、伦理考虑、偏见和软件开发中的作用、以及不同级别自动化水平下的算法和任务自动化的细致用法的综合探索。
Feb, 2024
该研究在人工智能和机器学习领域的三个期刊中进行了综述,指出数据处理是技术发展中最重要的部分。一些常用的数据集往往需要手动标记,因此半监督或无监督的方法被越来越多地研究。在实际应用中,考虑到安全和可解释的预测是必要的。
May, 2023
本文提出了一个名为 SOLA 的框架,旨在促进构建具有自主和持续学习能力的人工智能代理的研究,该框架能够自主地检测、适应和学习未知情况,并且描述了一个实现的代理来证明其可行性。
Mar, 2022
该论文介绍了在复杂的长期实际情境下,人工智能技术对于自主机器人实现长期自主的重要性,综述了各个子领域中研究的技术及其在长期机器人自主方面的应用,讨论了当前集成各项技术的进展、未来挑战和机遇。
Jul, 2018
提出了一种使用标准和本体论的信息模型来为自动化系统中的人工智能应用提供清晰和结构化的文档,通过实际示例验证了该模型在改进文档实践并帮助可持续实施人工智能在工业环境中的有效性。
Jul, 2024
本文探讨了人工智能在伦理、决策制定等方面引发的一些问题和讨论,并重点讨论 AI 代理人中的 “自我” 认知和其在决策制定方面的作用。作者旨在提倡建立拥有更强自我认知的 AI 代理人的研究。
Jan, 2022
这篇论文从四个主要聚类方向:综述文章、理论和概念、方法及其评估,总结了可解释人工智能领域的最新技术水平并提出了未来研究方向。
May, 2020
本研究探讨了创意和人工智能之间的关系,研究了人工智能在艺术创作中的应用,并考虑了人工智能对意识研究、兴趣和决策能力的潜在影响和伦理问题,以刺激人们对人工智能在创意领域中使用和伦理问题的思考。
Jun, 2023
这篇综述旨在推广对自动化 / 自主机器学习系统的更广阔视角,并探讨整合各种机制和理论框架的最佳方式。主要介绍超参数优化、多组件模型、神经架构搜索、自动特征工程、元学习、多层集成、动态自适应、多目标评估、资源限制、灵活的用户参与和泛化原则的发展。最终得出结论,建立自动化机器学习系统的架构整合是一个值得更深入探讨的重要问题。
Dec, 2020
人工智能在自动驾驶的感知和规划任务中表现出优越性能,但不透明的人工智能系统加剧了自动驾驶的安全保障难题。为了缓解这一挑战,我们首次对透明解释性人工智能方法在安全可信自动驾驶领域进行了全面系统的文献综述。我们分析了自动驾驶中人工智能的要求,并针对数据、模型和机构三个关键方面提出了透明解释性人工智能的基本原则。在此基础上,我们提出了五个透明解释性人工智能对安全可信自动驾驶的关键贡献,包括可解释设计、可解释的代理模型、可解释的监控、辅助解释和可解释的验证。最后,我们提出了一个名为 SafeX 的模块化框架,将这些贡献集成起来,为用户提供解释并同时确保人工智能模型的安全性。