2024年人类理解AI论文挑战赛 -- 数据集设计
讨论了设计人类感知人工智能系统面临的挑战,包括建模人类的心理状态、识别其愿望和意图、提供主动支持、展示可解释性行为、并引发信任等,并强调这种系统引出的伦理困境和推广真正跨学科合作的必要性。
Oct, 2019
本文提供了一个交叉学科的观点,以发展由人与机器组成的社会技术群体,通过结合人工智能和人类智能,共同实现复杂目标,并从彼此学习中不断提高。因此,需要为这些系统提供结构化的设计知识,并展示了使这些应用程序的系统开发人员有用的指导。
May, 2021
在该研究中,我们使用OpenAI的text-davinci-003模型,即GPT3.5,重复了Many Labs 2重复项目中的14项研究,其中我们的GPT样本在八项研究中复制了37.5%的原始结果和Many Labs 2结果的37.5%。然而,我们发现GPT模型在回答六个研究问卷中的问题时出现了极端的“正确答案”效应,这引发了对未来AI领域可能存在思想多样性降低的担忧。
Feb, 2023
数据叙事是一个强大的沟通数据洞察力的工具,但需要人类创建者具备多种技能和相当的努力。最近的研究广泛探讨了人工智能(AI)在支持和增强数据叙事中与人类的合作潜力,然而目前缺乏一个系统性的回顾来理解数据叙事工具从人工智能与人类合作的角度,这阻碍了研究人员对现有合作工具设计的反思,以促进人类和AI的优势并缓解它们的不足。本文通过一个框架从两个角度对现有工具进行调查:工具在叙事工作流程中的阶段,包括分析、规划、实施和沟通,以及每个阶段中人类和AI的角色,如创建者、助手、优化者和评审者。通过我们的分析,我们识别出现有工具中的常见合作模式,总结了从这些模式中得到的教训,并进一步说明了人工智能与人类在数据叙事中合作的研究机会。
Sep, 2023
人工智能与神经科学在可解释的人工智能中的交叉是增强复杂决策过程中透明度和可解释性的关键,本文探讨了从基于特征到以人为中心的方法的可解释的人工智能方法学的演变,并深入研究了它们在包括医疗保健和金融在内的不同领域的应用。同时讨论了在生成模型的可解释性、确保负责任的人工智能实践以及应对伦理影响方面的挑战。本文进一步研究了可解释的人工智能与认知科学的潜在融合、情感智能人工智能的发展以及人工智能系统中人类智能的追求。随着人工智能向人工通用智能的发展,对意识、伦理和社会影响的考虑变得至关重要。致力于通过人工智能解密大脑奥秘和实现人类智能的追求代表了结合技术进步与多学科人类认知探索的变革性努力。
Feb, 2024
这篇论文描述了一种研究人类与人工智能合作的新范式,称之为“人工智能相互学习”,它定义为人类与人工智能智能代理在合作中保留、交换和改进知识的过程。我们描述了该范式下的相关方法论、动机、领域示例、益处、挑战和未来研究议程。
May, 2024
人工智能的出现预示着短期内将带来深刻的变革,为了将人工智能发展与社会维度结合起来,计算机科学领域迫切需要跨学科工具。该论文介绍了挑战-设备-综合(CDS)方法论,通过向人工智能学生提出具体挑战并要求其开发解决方案设备,使设备成为社会转型的不同维度研究对象,在围绕设备的讨论中,学生得出的结论以10页科学论文的形式进行综述。我们提供了在“社会创新”主题的CDS实施阶段中获得的数据,这是巴塞罗那自治大学人工智能专业第六学期的6 ECTS(欧洲学分传输与积累系统)学科。我们提供了时间安排、任务分配、所使用的方法论工具和评估交付程序的详细信息,以及对获得的结果进行的定性分析。
May, 2024