- 大型语言模型中评估态度、观点和价值的潜力与挑战
近年来,大型语言模型(LLMs)的最新进展引发了人们对验证和理解 LLMs 可能具有的类人认知行为特质(Attitudes,Opinions,Values)的广泛兴趣。然而,测量嵌入在 LLMs 中的 AOV 仍然模糊不清,不同的评估方法可 - 代际差距:探索大型语言模型中的年龄偏见
本研究通过对 13 个类别的世界价值观调查数据进行分析,探索了大型语言模型(LLMs)与特定年龄群体的价值观契合度。我们通过一系列针对不同回应的多样化提示,发现 LLMs 在年轻人中的价值观倾向。此外,我们还探究了在提示中纳入年龄身份信息的 - SPICE 项目中博物馆文物的价值探索:初步研究
该研究描述了一种语义推理工具 (DEGARI 2.0),它旨在丰富博物馆游客所体验的观点多样性。该工具利用常识推理框架 TCL 和对哈伊特 (Haidt) 道德价值理论的本体模型,将博物馆展品与综合价值和情感相关联。在博物馆展览中,该工具不 - 研究儿童在 AI 问题形成过程中反映的价值观
了解儿童在训练 AI 模型(如可教授机器)的界面设计中的设计方式和价值观,可以增加这类活动的影响力,并指导未来技术的设计。在一个共同设计的会议中,一个团队由 5 个 7-13 岁的儿童和成年共同设计师参与了修改后的故事板上的 AI 问题构思 - 满足分布式动态团队信任的步骤
在动态多代理团队中,定义和衡量信任是非常重要的,特别是在国防和安全领域。我们关注的是如何定义目标和价值,以便能够以可解释的方式定义 ' 信任 ',并且人机皆可使用。我们提出了一套可以被人类或机器人团队成员理解的度量标准来定义人机团队之间的信 - 大型语言模型作为文化角度的叠加
本文介绍了大语言模型(LLMs)是如何呈现出与不同价值观和个性特质相关的不同视角,认为 LLMs 是一系列具有不同价值观和人格特质的透视。在实验中,研究者使用心理学问卷(PVQ,VSM,IPIP)来研究模型表现的价值观和个性特质如何因不同视 - 基于价值观的快慢 AI 推动
本文提出并讨论了一种基于价值观的人工智能 - 人类协作框架,其中 AI 系统通过提出决策建议来引导人类进行决策,该框架将价值观视作特定决策情境下要实例化的参数。
- 机器学习中异质性交织轴的揭示:迎接民主与包容进步
本研究探讨了机器学习应用于决策过程中的异质性,提出了价值观、文化和法规、数据组成以及资源和基础设施能力三个因素对 ML 产品轨迹的影响,并强调了需要联合考虑和解决这些因素的必要性。
- 大型语言模型八大要点
该论文调查了大型语言模型的八个潜在问题,包括其预测能力的增强,不可预测的行为的出现,对外部世界的学习和使用表示,行为引导技术的不可靠性,内部工作方式的解释困难性,性能上界不是人类任务表现,不一定表达其创建者或网络文本编码的价值观,与 LLM - 那就是全部了:共享价值的知识图谱作为常识社会规范和行为
本文提出两个本体模块 FOLK 和 That's All Folks,用于辅助主流价值理论识别在日常互动中扮演重要角色的价值,以深入了解社会动态和个人认知行为,同时利用基于框架的方法进行文本上的自动检测价值。
- 人工智能中的文化不协调
本文介绍了 AI (人工智能) 系统如何模拟人类行为以及 AI 技术与全球文化差异相交互时出现的问题,提出对语言和视觉技术中不同文化依赖性和不一致性的策略和可能性进行思考。
- EMNLPGPT-3 是谁?个性、价值观和人口统计的探索
本文对 GPT-3 的人格特征、价值观和自我报告的人口统计数据进行了心理评估,结果显示 GPT-3 在人格和价值观方面与人类样本的得分类似,我们提供了第一批 GPT-3 心理评估证据,并为未来将社会科学与语言模型放在更近距离提供了建议。
- 关于 “基准化” 人工智能伦理的元伦理观点
在这篇论文中,作者从道德哲学和元伦理学的研究中引用论述,提出了在当前没有一套能度量 AI 系统 “伦理性” 的指标和测量方式的情况下,将 AI 系统的考虑转变为 “价值观” 而非 “伦理学”,强调了价值观的相对性,这种思路会为开展 AI 系 - 探究预训练语言模型在跨文化价值差异中的应用
该研究介绍了一种研究方法,探究 Pre-Trained Language models 中不同文化背景下内嵌的价值观,并研究了这些模型与已有价值观测量问卷之间的对齐度较弱,讨论了如何在跨文化环境下使用这些不一致的模型以及对齐模型的方法。
- 数据集是否存在政治性?计算机视觉数据集开发中的学科价值观
本文采用结构化和主题内容分析研究了计算机视觉数据集的文档记录,强调了计算机视觉数据集作者重视效率、普遍性、客观性和模型工作的做法,而这些做法与社交计算实践相矛盾。研究人员提出了在数据集创建和管理过程中更好地融入这些价值观的建议。
- 机器学习研究中编码的价值观
通过研究高度引用的机器学习论文,本文发现只有少数论文能够说明其与社会需要的联系,而且更少讨论负面潜力。同时,本文还发现,机器学习研究中经常突出强调的几个价值观,如性能、泛化、量化证据、效率、建立在过去的工作基础之上和创新性等,往往在支持权力 - EMNLP基于立场的意见对话角色
本研究提出一种基于立场的人物形象表达方式,探讨不同的人物形象表达对于话语生成的影响,数据结果显示,这种表达方式可以更准确地把握作者立场的抽象和深刻的方面。
- 以人为中心的可解释人工智能:走向一种反思性社会技术方法
介绍了以人为中心的可解释人工智能作为一种方法,该方法考虑了价值观、人际动态和人工智能系统的社会情境性,通过反思的社会技术方法,提出了开放性研究问题,文献以解释系统为例,讨论了人类的因素如何影响系统技术进步,并提出了基于批判性技术实践的反思的 - IJCAI关于一致和冲突价值观
该篇短文提出了价值观可以分为冲突和固有冲突两类,前者取决于行动,后者则可看作行动之外的东西,从而可以检查一组价值观是否一致或与其他组的价值观相冲突。
- ICML从观察中获取的感知价值
本文探讨了一种用观察进行模仿学习的方法,介绍了一种从观察中直接学习价值的新方法,并证明使用该方法可以显著提高强化学习速度。