获取背景知识以提高道德价值预测能力
通过精心设计的 MoralBERT 模型,结合社交媒体平台的标注道德数据,探索了道德预测及领域适应技术在理解有争议的社会议题上的应用,结果表明在领域内的预测模型明显优于传统模型,但领域外的泛化仍需进一步探索。
Mar, 2024
我们提出了基于文本的框架,通过纵向语料库研究公众道德情感变化。我们的方法建立在语言使用可以反映人们对对与错的道德观念之上,并通过探索从时间序列的词嵌入中学习到的道德偏见来构建我们的方法论。我们的研究为应用自然语言处理技术对社会中的道德情感变化进行表征提供了机会。
Jan, 2020
使用大规模语言模型和自然语言推理模型训练获得的抽象概念和常识知识,我们研发了多领域道德价值检测的多功能和强大方法,其中采用 GPT 3.5 模型作为基于零样本的无监督多标签道德价值分类器,消除了对标记数据的显式训练需求。与较小的基于自然语言推理的零样本模型相比,结果显示自然语言推理方法在性能上与 Davinci 模型不相上下。此外,我们对在不同领域训练监督模型以探索其在处理来自不同源的数据时的效果,并将其与无监督方法进行比较的性能进行了详细的调查分析。推广了一种无监督道德价值检测的最新零样本模型 Davinci,并与监督模型进行了比较评估,从而突破了道德价值检测的极限,无需显式训练标记数据,并揭示了各自的优势和劣势。
Jun, 2024
本文介绍了 ETHICS 数据集,旨在通过连接社会世界知识和价值判断来评估语言模型对道德基本概念的了解程度,研究发现当前语言模型有望但能力不完整地预测基本人类道德判断,并提供了实现人工智能与人类价值对齐的一步。
Aug, 2020
我们提出了一种基于上下文的道德价值对齐系统,通过对用户输入提取的特征,将适合回应用户的一部分最佳 LLM 响应整合在一起,该系统在与人类价值对齐方面显示出比现有技术更好的结果。
Mar, 2024
利用道德事件数据集和基于道德知识增强的 MOKA 框架,研究新闻报道中道德事件的选择性报道和不同意识形态倾向,揭示了新闻媒体运用道德语言创造记忆深刻的故事,并与读者价值观相契合的内在动力。
Nov, 2023
本研究旨在研究道德价值观和语言使用在社交媒体文本中的领域移位,检验其对道德分类任务的影响,并提出了一种神经适应框架。通过实例加权来提高跨领域分类任务的性能,研究结果表明,在 7 个社会运动中,微调后的任务获得高达 12.1%的性能改善,而使用 COVID-19 疫苗作为例子的细化研究得到了 5.26%的性能提升。
Apr, 2022
利用一个名为识别价值共鸣(RVR)的 NLP 模型,将 WVS 调查的价值观与生成的 LLMs 文本进行比较,发现 LLMs 显示出西方中心主义的价值偏见,高估了非西方国家的保守性,对非西方国家的性别表达不准确,并将年长人口描绘为更具传统价值。
Dec, 2023
本文探讨了利用机器学习模型对故事数据进行规范原则预测的任务,研究表明,单独的原则可以被分类,但 ' 道德准则 ' 的不确定性对于人类和自主系统来说都是一个挑战。
Nov, 2022
本文探索了利用不同位置、时间和作者搜集的大量元数据来分析推文情感,并使用基于贝叶斯方法的分类器,将上述元数据与 n-grams 等标准语言特征相结合,以更准确地对推文情感进行分类。结果表明,将 Twitter 可用的丰富上下文信息整合到情感分类中是一个有希望的研究方向。
May, 2016