- 语言模型对道德的理解?走向鲁棒的道德内容检测
使用大规模语言模型和自然语言推理模型训练获得的抽象概念和常识知识,我们研发了多领域道德价值检测的多功能和强大方法,其中采用 GPT 3.5 模型作为基于零样本的无监督多标签道德价值分类器,消除了对标记数据的显式训练需求。与较小的基于自然语言 - 基于语言提示的 LLM 伦理推理和道德价值调整
通过研究 GPT-4、ChatGPT 和 Llama2-70B-Chat 在不同语言中进行道德推理的方法,本研究探讨了道德判断是否取决于提示的语言,并发现在其他语言中,ChatGPT 和 Llama2-70B-Chat 存在显著的道德价值偏 - 解构冒犯感知:文化和道德相关性
经过大规模的跨文化研究,我们发现不同文化背景下对冒犯性的感知存在显著差异,而个体的道德价值观在塑造这些差异方面起到了关键作用。这些认识对于我们构建适用于多元文化背景的 AI 模型至关重要,以确保它们尊重和考虑各种地理文化背景中的道德价值观。
- 评估基于大语言模型的道德价值多元论
利用一个名为识别价值共鸣(RVR)的 NLP 模型,将 WVS 调查的价值观与生成的 LLMs 文本进行比较,发现 LLMs 显示出西方中心主义的价值偏见,高估了非西方国家的保守性,对非西方国家的性别表达不准确,并将年长人口描绘为更具传统价 - MOKA:道德事件抽取的道德知识扩充
利用道德事件数据集和基于道德知识增强的 MOKA 框架,研究新闻报道中道德事件的选择性报道和不同意识形态倾向,揭示了新闻媒体运用道德语言创造记忆深刻的故事,并与读者价值观相契合的内在动力。
- 不仅仅是歌词”:通过歌词联系音乐偏好和道德价值观
通过歌词分析、心理测量分数以及机器学习,研究了个体音乐偏好与道德价值观之间的关联,发现音乐歌词可以很好地预测人们的道德观念,而传统和分层的价值观更容易通过歌词体现。
- ACL道德准则是否有自己的道德准则?探究德尔斐道德哲学
通过一些标准的道德问卷,研究发现虽然有些不一致,Delphi 模型与参与注释的人群所关联的道德原则相似,但是研究质疑了这种模型的可取性,并探讨了如何在这一基础上推进。
- 通过实例加权学习适应道德价值观的域漂移
本研究旨在研究道德价值观和语言使用在社交媒体文本中的领域移位,检验其对道德分类任务的影响,并提出了一种神经适应框架。通过实例加权来提高跨领域分类任务的性能,研究结果表明,在 7 个社会运动中,微调后的任务获得高达 12.1%的性能改善,而使 - 数百万次联合购买和评论揭示了极化和生活方式政治在在线市场的传播
在亚马逊的 82.5M 评论数据和 9.5M 产品元数据的基础上进行研究,发现文化产品比任何其他产品都更加极化,探讨了生活方式政治在市场方面的表现形式以及其原因和影响。
- BERT 有道德指南:提升机器的伦理和道德价值
该研究证明了通过应用机器学习算法从自然语言文本中提取道德和伦理判断,BERT 可以提高机器的道德价值观和伦理价值观的准确性,并且进一步使其能够为 Moral Choice Machine 提供更准确印记的道德选择和伦理价值。
- 社交媒体中人类价值观和对疫苗的态度
本文旨在探索社交媒体的潜力作为感知工具,分析疫苗犹豫者的政治观点、道德价值观、人格特征和常见兴趣,在基于数字痕迹的洞察提供的基础上,构建建立通信活动,建立信任,提高社会道德标准。
- 获取背景知识以提高道德价值预测能力
本文中,我们提出了一个新的方法,结合基本的文本特征和外部知识库中获取的背景知识来检测推文中的道德价值表达,并在计算社会科学的领域中实现了与单个人注释员相媲美的性能。这是在预测隐含心理变量方面首次尝试使用背景知识。
- IJCAI负责任的自主
讨论了人工智能伦理学的研究方向,提出了确保人工智能系统行为符合道德和社会价值的替代方法,并介绍了设计和利益相关者价值观提取方法。