Datavoidant: 解决社交媒体上政治数据空白的人工智能系统
通过两个可视化工具,HearHere 为用户提供定量的政治立场信息,促进多视角的新闻信息消费。通过一项用户研究,我们展示了 HearHere 在支持来自各个角度的信息消费方面的可行性,并强调提供政治立场信息和量化用户的政治地位的重要性以减轻政治极化。
Feb, 2024
我们介绍了一种将社会科学构建转化为人工智能目标函数的方法,并以反民主态度为例进行演示。我们利用社会科学的调查工具和质性代码簿创建了一个民主态度模型,并通过三项研究测试了该模型。研究结果表明,使用这种社会目标函数对社交媒体进行排名可以减少党派敌意,而不会损害用户体验和参与度。这种方法利用社会科学理论和方法来缓解社交媒体人工智能中的社会危害。
Jul, 2023
本文介绍了如何利用自然语言处理技术(如基于机器学习或神经网络的技术)来发现不同平台上的政治内容,并使用三组数据集对依赖于字典、监督学习或神经网络的三组检测技术的表现进行了系统比较。我们还对数据的不同预处理模式的影响进行了检验,结果表明,在处理较少噪声的数据时,使用基于神经网络和机器学习的模型效果最佳,而在处理噪声较多的数据时,使用基于字典的模型效果更为稳健。
Jul, 2022
研究信息泄露的问题,提出了利用针对性误导生成来强化机器学习模型对推理攻击的鲁棒性,即通过插入新数据来稀释原数据,使用多个分类器的决策边界进行概率标注。
Feb, 2022
AI 生成的新闻是网络上的重要的误信息来源,此研究开发了一个名为 J-Guard 的框架,通过应用独特的新闻特征来有效区分真实的新闻和 AI 生成的新闻,并在面对对抗性攻击时只有 7%的性能下降。
Sep, 2023
本文提出了一个框架,旨在解决数据保护系统的隐私和偏见问题,通过提供差分私有版本的安全机制,对 US Census 数据发布和分类任务进行准确度和公平性比较。结果表明,与广泛使用的 DA 机制的差分隐私版本相比,传统的差分隐私技术在准确性和公平性方面可能更优。
Jan, 2023
本研究利用大规模实验展示了如何用人工智能工具改善有争议话题的在线对话,从而提高参与者认为自己在会话中被理解的感受和对话的质量,减少政治分歧和恶意,而不改变对话内容或人们的政策态度。
Feb, 2023
该研究介绍了一种基于自我注意力半监督框架的政治倾向检测方法,通过对社交媒体上公开可用的数据进行解释,可以低成本、无涉及相关人员的方式收集可控的调查人群的见解,并获得 93.7% 的准确性,具有高效性和可拓展性。
Sep, 2022
本文提出了一种新的半监督方法 VADet 用于检测疫苗态度,该方法通过主题建模学习无标记数据的主题信息,再用少量手动注释的样本进行微调。实验结果表明,该方法能够学习到立场和方面主题,且在立场检测和推文聚类方面优于现有的基于方面的情感分析模型。
May, 2022
通过 Delphi 模型的评估,本文发现该模型在不同的美国政治子群体中存在显著的政治偏向和置信不足等问题,并在数据女权主义的视角下对模型的政治中立性进行了讨论和反思。
Jun, 2023