设定人工智能议程——来自瑞典的ChatGPT时代证据
区分“近期”和“长期”研究在人工智能伦理和社会研究领域中已经具有广泛应用和重要性,但是文章对该分类方式的模棱两可和不一致性提出了一些担忧。为了建立新的合作机会、发展更一致的研究议程并确定以前忽视的研究领域,作者建议通过4个维度进行更加清晰的交流。
Jan, 2020
本文提出了一种“公众参与”方法框架,旨在更好地参与算法决策,共同决策,并构建群众。结合通讯文献的见解,探讨其在涉及公共政策领域的AI设计中的特点对参与者的重要性,如再犯率预测,为支持此工作的人机交互社区描绘了一部分研究议程。
Apr, 2022
本研究利用大规模实验展示了如何用人工智能工具改善有争议话题的在线对话,从而提高参与者认为自己在会话中被理解的感受和对话的质量,减少政治分歧和恶意,而不改变对话内容或人们的政策态度。
Feb, 2023
通过创建和描述ChatGPT和Bard响应的数据集,我们发现在美国高度极化的话题中,ChatGPT和Bard倾向于左倾,Bard更可能围绕极化话题提供响应,且对争议话题的限制较少,倾向于提供全面且更像人类的回答。利益相关者可以利用我们的发现来减少自然语言处理模型中的错误或极化响应。
Jul, 2023
通过将ChatGPT暴露在具有争议性的问题上,我们旨在了解其意识水平,以及现有模型是否存在社会政治和/或经济偏见。同时,我们还旨在探讨人工智能生成的答案与人类答案的对比情况。通过使用社交媒体平台Kialo创建的数据集来进行探索。我们的研究结果表明,尽管ChatGPT的以前版本在争议性话题上存在重要问题,但最近的版本(gpt-3.5-turbo)在多个知识领域中不再表现出明显的显性偏见,特别是在经济方面进行了很好的调节。然而,它仍然保持着一定程度的对右倾意识形态的隐性倾向,这表明需要从社会政治的观点增加更多的调节。在争议话题的领域知识方面,除了“哲学”类别外,ChatGPT在跟上人类集体知识水平方面表现良好。最后,我们发现与人类答案相比,Bing AI的信息来源在倾向中立方面略有增加。我们的所有分析都具有普遍适用于其他类型的偏见和领域。
Aug, 2023
通過對十位質性研究人員進行的用戶研究,發現ChatGPT在主題分析、編碼效率提升、初步數據探索、提供細粒度定量洞見和協助非母語者和非專家的理解方面,為質性研究人員提供了有價值的協作者,然而對其信任度、準確性、一致性、上下文理解和在研究社區中的廣泛接受性存在顧慮,我們提供了五個可行的設計建議以促進有效的人工智能與人類的合作。
Nov, 2023
我们从德国的角度评估了当前最流行的开源模型在欧洲联盟内涉及政治问题的偏见,发现较大的模型更倾向于与左翼政党相符,而较小的模型通常保持中立,这凸显了LLM的细微行为和语言对其政治立场的重要性。我们的发现强调了对LLMs进行严格评估和处理社会偏见的重要性,以保障应用现代机器学习方法的应用程序的完整性和公平性。
May, 2024
通过对市场理论和ChatGPT的比较,本研究发现它们展示了至少四个共同特点:竞争场所、手段、目标和缺陷,从而使得ChatGPT成为历史上最符合实现市场理论的引擎。该研究还主张AI内容风险不应该由AI公司承担,而应该由不同社会角色来共同承担。
May, 2024
本研究探讨了ChatGPT发布后媒体对人工智能叙事的变化,填补了AI报道中叙事分析的空白。通过对超过49,000句来自5846篇新闻文章的数据进行框架语义分析,发现媒体关注度在发布后的半年内显著增加,且对AI的讨论逐渐围绕专家与政治领袖展开,强调了AI带来的危险和风险。
Aug, 2024