MOKA:道德事件抽取的道德知识扩充
本文介绍了一项新的任务,即理解新闻文章中对事件的道德观点。通过创建一个名为 EMONA 的新数据集,对新闻文章中的事件级道德观点进行了注释,并建立了用于事件道德识别和分类的基准模型。实验证明,对事件的道德观点可以用于识别意识形态偏见或主观事件。
Apr, 2024
人类对物理和社会世界的常识性理解建立在直觉理论的基础上,而这些理论支持我们进行因果和道德判断。本文通过收集一系列的故事并对其进行标注,测试了大型语言模型对文本场景进行的因果和道德判断是否与人类参与者的判断相符。结果显示,虽然整体上随着近期大型语言模型的发展,其与人类的判断相符度有所提高,但通过统计分析发现大型语言模型与人类参与者之间对不同因素的重视程度存在明显差异。这些结果显示了如何通过策划和挑战性数据集结合来自认知科学的见解,超越基于总体指标的比较,揭示了大型语言模型的隐含倾向,并展示了这些倾向在多大程度上与人类的直觉相一致。
Oct, 2023
本文中,我们提出了一个新的方法,结合基本的文本特征和外部知识库中获取的背景知识来检测推文中的道德价值表达,并在计算社会科学的领域中实现了与单个人注释员相媲美的性能。这是在预测隐含心理变量方面首次尝试使用背景知识。
Sep, 2017
通过精心设计的 MoralBERT 模型,结合社交媒体平台的标注道德数据,探索了道德预测及领域适应技术在理解有争议的社会议题上的应用,结果表明在领域内的预测模型明显优于传统模型,但领域外的泛化仍需进一步探索。
Mar, 2024
本文提出一种使用 Wikidata 知识库的方法来产生新闻文章的语义注释,并描述了一种语义搜索引擎,支持基于关键词的搜索和结构化数据搜索。
Apr, 2019
使用大规模语言模型和自然语言推理模型训练获得的抽象概念和常识知识,我们研发了多领域道德价值检测的多功能和强大方法,其中采用 GPT 3.5 模型作为基于零样本的无监督多标签道德价值分类器,消除了对标记数据的显式训练需求。与较小的基于自然语言推理的零样本模型相比,结果显示自然语言推理方法在性能上与 Davinci 模型不相上下。此外,我们对在不同领域训练监督模型以探索其在处理来自不同源的数据时的效果,并将其与无监督方法进行比较的性能进行了详细的调查分析。推广了一种无监督道德价值检测的最新零样本模型 Davinci,并与监督模型进行了比较评估,从而突破了道德价值检测的极限,无需显式训练标记数据,并揭示了各自的优势和劣势。
Jun, 2024
提出了 CrisisKAN,一种新颖的知识注入和可解释的多模态注意力网络,结合了来自维基百科的图像和文本以分类危机事件。实验证明,CrisisKAN 在解释性多模态事件分类领域超过了现有的最先进方法。
Jan, 2024
利用开放词汇泛化的方法,本文提出了 MOKA(标记开放词汇关键点可利用性)来使用视觉语言模型解决由自由形式语言描述的机器人操作任务,通过在图像上注记关键点和航点的预测,将问题转化为视觉问答问题,并通过上下文学习和策略精炼提升性能,验证并分析了 MOKA 在以自由形式语言描述的各种操纵任务中的表现,如工具使用、可塑性物体操作和物体重新排列。
Mar, 2024
本文提出了两项理解任务和两项生成任务,以评估机器的道德故事理解和写作能力,并提供了一个新的汉英双语人工写作的道德故事数据集 STORAL,使用检索增强算法对模型进行训练,并在自动和手动评估中测试了不同模型的性能。
Apr, 2022
本文介绍了 ETHICS 数据集,旨在通过连接社会世界知识和价值判断来评估语言模型对道德基本概念的了解程度,研究发现当前语言模型有望但能力不完整地预测基本人类道德判断,并提供了实现人工智能与人类价值对齐的一步。
Aug, 2020