- ResumeAtlas:基于大规模数据集和大型语言模型的简历分类再探索
通过使用大规模数据集和大型语言模型,在线招聘平台的依赖性、简历分类的准确性和网络招聘实践的发展方面,我们展示了一种全面的简历分类方法,取得了显著的改进和进步。
- CIVICS:在大型语言模型中构建一个用于研究文化信息价值观的数据集
介绍了 CIVICS 数据集,该数据集旨在评估大型语言模型(LLMs)在多种语言和价值敏感的话题上的社会和文化变化。通过动态注释流程、定制提示设计和实验,调查了开放权重的 LLMs 对价值敏感问题的反应,研究了它们在不同语言和文化环境中的行 - 模拟政策影响:发展一种生成场景编写方法以评估监管的感知效果
AI 技术、政策、语言模型、负面影响和透明度立法是本文的关键词,本文利用大型语言模型评估政策的有效性以减轻负面影响,并通过案例研究证明了方法的有效性。
- 人工智能视阈下的研究信息:质量与数据生态
该论文提出了多学科和跨学科的方法,用于找到研究信息的适当的人工智能技术。提出了一个概念和一个过程模型,描述了从项目开始到正在运行的人工智能方法在研究信息管理中的实施,旨在使大学和研究机构能够在存储研究信息时支持研究人员处理不正确和不完整的研 - SciCapenter: 支持科学图表的标题组合与机器生成的标题和评级
SciCapenter 是一个交互式系统,使用尖端的人工智能技术为科学图解提供多样的说明,通过评估说明质量的得分和综合检查表,显著降低了科学说明撰写的认知负荷。
- 通过提示工程增强情绪操纵在人工智能大型语言模型中的虚假信息生成
OpenAI 大型语言模型通过提示工程生成合成的虚假信息,本研究探讨了它们对情感提示的响应,并设计了实验来评估它们产生虚假信息的成功程度,研究发现 OpenAI 的所有语言模型都能成功产生虚假信息,并且它们有效地对情感提示作出回应,表明它们 - 我们应该担心大型语言模型吗? 通过海德格尔哲学的视角对人类推理系统进行结构分析以阐明 LLM 的能力和风险
该研究通过分析和比较大型语言模型(LLMs)与马丁・海德格尔 “实用存在” 和 “现成存在” 概念之间的相似之处,以及通过基于海德格尔对真理的概念的结构性分析,探讨了 LLMs 在人类推理过程中的位置和局限性,发现尽管 LLMs 在某些推理 - MM机械商贩:战术媒体艺术与对企业人工智能的批评
探讨关于艺术家如何主题化创造力、众包劳动和委派艺术制作以揭示人工智能技术社会根源并强调其中人类在发展过程中的积极作用的相关艺术实践,重点关注通过诗意特征指示出当代受人工智能影响的科学、技术、经济和社会领域广泛问题的作品。通过探索这些作品在打 - 一种使用生成对抗网络(GAN)创建虚拟试衣间的成本有效方法
在 COVID19 大流行病之后,由于许多卖家要么改为在线购物,要么关闭试衣间,顾客对购物过程感到犹豫和不确定,因此,使用新的 AI 技术创建一个在线平台或虚拟试衣间 (VFR) 可以满足顾客试穿产品的需求,从而提高销售量和产品质量。
- Wordflow:大型语言模型的社交提示工程
大型语言模型(LLMs)需要精心设计的提示才能有效使用。在提示工程中,设计提示是一项具有挑战性的工作,特别是对于不熟悉人工智能技术的非专业人士来说。为填补这一研究空白,我们提出社交提示工程,这是一个借助社交计算技术促进合作性提示设计的新范式 - 早期儿童教育中的关键人工智能技术综述
人工智能(AI)技术应用于各个领域,包括幼儿教育(ECE)。我们提供了一份关于 ECE 中关键 AI 技术的最新和深入的综述,通过详细的文献计量分析提供了一个历史视角、总结了代表性工作、概述了开放问题、讨论了趋势和挑战,并对未来研究提供了深 - 模式即服务(MaaS):调查
Model-as-a-Service (MaaS) 是一种新的部署和服务范式,为不同的基于人工智能的模型提供了可扩展和可访问的解决方案,本文综述了 MaaS 的意义、其在各个行业的应用以及未来研究的挑战和问题。
- 在医疗和其他领域利用人工智能的道德框架
AI 技术的快速发展与伦理维度的深入研究,特别关注于医疗领域,探索透明度、数据管理、人工监督、教育要求以及国际合作等众多方面,呼吁全球统一的 AI 伦理原则和框架,并提出有益的伦理方案以应对新兴挑战。
- 协同过滤捕捉 AI 用户的偏好作为规范
个性化 AI 技术的定制对其良好运行至关重要,当前的方法需要太多用户参与,无法真正捕捉其偏好。我们认为需要一种新的视角来构建规范,利用整个用户系统中大量可用的偏好信息,启发于推荐系统,我们相信协同过滤可以提供一种适合的方法来识别用户的规范偏 - 人才分析的人工智能技术综述
在人力资源管理领域,我们提供了一份关于人工智能技术在人才分析方面的综合调查,首先提供了背景知识和分类相关研究努力,然后根据三种应用驱动场景对其进行了综合分类,最后总结了 AI 驱动的人才分析在未来研究方向的挑战和潜在前景。
- 通过图学习的归纳探测影响操作
本文提出了一种基于归纳学习的方法识别操纵操作,并借助该方法检测来自俄罗斯、中国和伊朗的操作,在跨操作普适性和检测范围方面取得了良好的效果。
- G3Detector:通用 GPT 生成文本检测器
本篇研究针对近年来大模型语言技术的快速普及及不断提高的适应性,提出了具有高效性和稳定性的人造文本检测方法。该方法能够辨别多种模型和解码策略生成的人造文本,并具有抗检测的能力。此外,研究还对机器生成文本检测机制的鲁棒性做出了贡献,揭示了在使用 - ChatGPT,大型语言技术及其造福人类的曲折之路
探讨 AI 技术的安全性和伦理道德问题及可持续发展,提出需要加强教育和合作研究,并强调需要建立可持续和公平的标准以应对全球不平等带来的问题。
- ChatGPT 和 Bard 能否生成对齐的评估题目?针对人类表现的可靠性分析
本文测试了 ChatGPT 和 Bard AI 技术在评估和教学领域的应用。使用 ICC 构建了性能指标来衡量它们的可靠性,结果显示,这两款 LLM 工具在感知和评估写作提示复杂性方面相对人类评分标准具有较低的一致性。
- 真相机器:在 AI 语言模型中合成真实性
本文讨论了 AI 系统中真理的斗争及其对 InstructGPT 的性能进行了调查,强调了数据收集、模型架构和社会反馈机制如何将各种看法巧妙地综合并自信地呈现为真实陈述,提出了增强未来语言模型真理评估能力的两个可行方向,即丰富社交性和增强