使用带有观点的语言模型共同撰写会影响用户的观点
通过对大型语言模型的合作写作进行实验,我们测量了共同撰写对多样性的影响,发现使用 InstructGPT 会显著降低多样性,增加作者之间的文字相似性和降低词汇和内容多样性。这表明通过模型适应人类反馈来提高生成质量可能以减少多样性为代价。
Sep, 2023
本文利用自然语言生成中存在的偏见漏洞,探索了六个不同在线社区的偏见。通过对 GPT-Neo 1.3B 进行精细调整,该文评估了生成模型的偏见,并通过不同的人口属性来比较情感和毒性价值,从而揭示了各种模型的偏见类型和强度的差异。此外,本文所生成的示例还展示了在偏见研究中使用自动情感和毒性分类器的局限性。
Jun, 2023
人工智能的替代代理人具有重要的影响力,可在线上言论中生成有效的论点,以引导公众舆论;此外,它们之间的相互作用还能够模拟人类社会系统中的说服过程,以便作为研究人群舆论动态的可信代理人。
Dec, 2023
本研究旨在有意地引入偏见到大型语言模型的响应中,以创建特定的互动媒体角色。我们探索了 Falcon-7b 等开源模型与 Open AI 的 GPT-4 模型之间的差异,并对两个系统的响应进行了一些量化比较。我们发现,GPT-4 的专家混合模型中的防护措施虽然在确保 AI 的整体对齐方面很有用,但在构建具有各种不寻常观点的角色时却具有负面影响。本研究旨在为未来探索大型语言模型中的有意偏见奠定基础,以便这些实践可以应用于创意领域和新型媒体。
Nov, 2023
我们提出了一种从文本集合中挖掘意见的新方法,该方法是使用在不同人群收集到的数据上训练的生成式语言模型。我们描述了意见洞察挖掘的基本定义、方法论和通用算法。通过在实验中展示预先训练的生成式模型使用经过特殊设计的内容进行精调,我们展示了我们的方法的性能,其中包含不自然且完全注释的意见。我们展示了我们的方法能够学习和将意见转移到语义类别中,同时保持极性的比例。最后,我们展示了使用洞察挖掘系统来从真实文本语料库中扩大发现意见洞察的用途。
Jul, 2023
使用 Transformer Language Models 等方法对 Yelp 评论进行语言行为学习,并利用 prompt-based queries 生成合成文本以分析特定观点,证明即使在缺乏特定关键词的情况下,这些模型也能准确产生具有正确情感的大量文本。
Apr, 2022
对个人化的大型语言模型输出进行用户政治倾向性的引导,发现左倾用户更容易接收到对左派政界人物和媒体机构的正面评价,而右倾用户则更容易接收到对右派实体的正面评价。这种个人化模式会带来情感极化和过滤泡沫的风险。
Oct, 2023
通过 OpinionsQA 数据集,本研究提出了一种量化框架,调查语言模型中体现的观点与美国 60 个人口群体的观点的一致性,在包括堕胎和自动化在内的话题上,我们发现当前的语言模型与 US 人口集体观点之间存在相当大的不匹配,即使是明确定向于特定人口群体也是如此。
Mar, 2023
通过对比 ChatGPT 与人类写作的 argumentative 学生论文,我们系统地评估了 AI 生成内容的质量,结果表明 ChatGPT 生成的论文在质量上要高于人类写作。
Apr, 2023
本文通过分析针对信息内容而忽略其社会方面的单一视角,提出智能写作助手需要融入社会因素来建立更有效、更个性化的写作助手,以提高用户体验和促进用户的广泛采用。
Mar, 2023