浅谈自动测量和自报生产力之间的关系
该研究报告调查了 42 名软件开发人员的情绪、创造力和分析问题解决能力之间的关系,并支持了 “快乐开发者更擅长分析问题解决” 的说法。该研究提供了更好地理解情绪状态对软件开发人员创造力和分析问题解决能力的影响,并引入和验证了关于情感状态、创造力和分析问题解决能力的心理测量、理论和概念,从而提出了利用多学科视角研究软件工程的人因素的需要。
May, 2015
本文提出了一种新型生产力评估模型,用于评估在生产链中采用人工智能 (AI) 组件的影响。我们的模型提供了支持解决 “AI” 的 Solow 悖论的证据,其基础包括(i)理论和实证证据以解释 Solow 的二分法;(ii)数据驱动模型以评估和评估生产率变化;(iii)基于过程挖掘数据集的方法论,以确定业务流程(BP)和生产率;(iv)一组计算机模拟参数;(v)以及关于劳动力分配的实证分析。这些为我们认为 AI Solow 悖论的后果是指标误测提供了数据。
Oct, 2022
本研究对使用 GitHub Copilot 的用户进行了调查,并研究了其对程序员生产率的影响,发现显示建议被接受的速率是开发人员感知到的生产率的驱动因素。
May, 2022
本文探讨了一种新的用于软件项目生产力预测的集成构建机制,利用带权平均方法来汇聚基模型的预测结果,结果表明基模型准确性不一致时,使用集成方法是一种良好的替代方案。
Dec, 2018
研究表明,具有实现代码自动生成能力的大型语言模型的正确性及努力度均对程序员的价值有影响,建议设计出更人性化的评估指标以评估这些模型的优劣。
Oct, 2022
本文通过对比软件工程师和人工智能系统(如 ChatGPT)在不同评价指标下的性能表现,探讨了它们各自的任务适用性,以促进人机协作、提高 AI 方法的可靠性和理解,以及实现协作工作结构和人在循环过程。
May, 2023
该研究调查了科学和工程领域人员在寻找软件时的偏好和选择标准,并发现软件开发人员在社区网站、软件项目库、软件目录和组织特定的邮件列表或论坛等方面与非开发人员存在差异,同时调查还确定了一些阻止人们找到软件的因素。
May, 2016
研究基于对创意理论核心概念:流畅性,灵活性和原创性的整合,定义并应用一个通用的可高效计算的创意度量,将其应用于 Scratch 项目的机器学习模型中,人类专家和模型的创意度量结果存在差异,该方法可用于教育技术的创意度量。
Nov, 2022
本文讨论了在自然语言生成领域中,自动评估度量和人类评分之间相关性分析的两种方法。我们的实验表明,根据使用系统级或句子级相关性分析,自动评分和人类判断之间的相关性结果是不一致的。
May, 2018
我们提出了一种全面的、以用户为中心的方法,以了解基于人工智能的生产力代理的偏好,并开发出根据用户需求定制的个性化解决方案。利用一个两阶段的方法,我们首先对 363 名参与者进行了调查,探讨了生产力、沟通风格、代理方法、个性特征、个性化和隐私等各个方面。基于此调查结果,我们开发了一款由 GPT-4 驱动的个性化生产力代理,利用通过 Viva Insights 从信息工作者那里收集到的遥测数据来提供定制帮助。我们在一个涉及 40 位参与者的研究中,将其性能与其他生产力辅助工具(如仪表板和故事情节)进行了比较。我们的研究发现强调了用户为中心的设计、适应性以及个性化与隐私之间的平衡在 AI 辅助生产力工具中的重要性。通过借鉴我们研究中的洞察,我们相信我们的工作可以推动未来的研究,进一步增强生产力解决方案,最终实现信息工作者的优化效率和用户体验。
Jan, 2024