检测对话式搜索中的生成型原生广告
本文探讨了在在线广告系统中利用大型语言模型 (LLM) 的潜力,深入研究了该系统必须满足的隐私、延迟、可靠性、用户和广告商满意度等关键要求。我们进一步介绍了一个 LLM 广告的通用框架,包括修改、竞价、预测和拍卖模块,对每个模块的设计考虑进行了详细探讨,分析了它们的实用性以及实现中存在的技术挑战。
Nov, 2023
综述了大规模语言模型(LLMs)生成内容检测的现有策略和基准,并指出该领域的关键挑战和前景,提倡采用更加适应性和稳健的模型来提高检测准确性,以及应对 LLMs 能力快速发展的多方面防御方法的必要性。该工作是在 LLMs 时代首部全面综述内容检测的研究,旨在为研究人员和从业者提供广泛了解 LLMs 生成内容检测的当前情况的指导参考,以保护数字信息的完整性。
Oct, 2023
提出了一种新颖的自我检测方法,通过扩展问题的文本表达并收集相应的答案,检测大型语言模型(LLMs)是否会产生虚假回答,证明了该方法在 LLM 效果上的有效性。
Oct, 2023
该研究对大型语言模型生成文本的检测技术现状及未来方向进行了综述,并提出了发展全面的评估指标和威胁控制方案等必要措施。关注点包括大型语言模型的开源威胁和其所产生的可能的误传信息问题。
Feb, 2023
本研究提出了一种方法,用于在 Google Ads 中扩大大型语言模型(LLM)的内容审核,通过使用启发式方法选择候选项,创建广告簇,并使用 LLMs 仅审核代表性广告,该方法将审核数量减少了 3 个数量级,同时与基准非 LLM 模型相比,实现了 2 倍的召回率。该方法的成功与聚类和标签传播中使用的表示方式密切相关,发现跨模态相似性表示法比单模态表示法获得更好的结果。
Feb, 2024
通过回答三个研究问题,本研究探讨了利用大型语言模型(LLMs)生成的谣言和虚假信息对目前存在的谣言检测技术的影响,以及通过使用 LLMs 作为强大的谣言防御手段以及针对这一威胁的新方法的可能性。
Sep, 2023
人工智能广泛应用于解决与市场归因和预算优化相关的问题,然而由于模型复杂,很难在没有完整的实施团队的情况下理解模型的运作和见解,理论上,最近开发的大型语言模型(如 GPT-4)可以用来提供营销见解,以减少做出关键决策所需的时间和精力。 实际上,要可靠地使用这些模型,需要克服一些重大挑战,我们聚焦于领域特定的问答、用于数据检索的 SQL 生成以及表格分析,并展示了如何通过语义搜索、提示工程和微调的结合来显著提高大型语言模型执行这些任务的准确性。我们比较了专有模型(如 GPT-4)和开源模型(如 Llama-2-70b),以及各种嵌入方法。这些模型在特定于市场混合建模和归因的样本用例上进行了测试。
Apr, 2024
大语言模型(LLM)的出现具有革命性的影响。然而,像 ChatGPT 这样的 LLM 是否可能被滥用来生成误导信息,对在线安全和公众信任构成了严重关注。我们从检测难度的角度提出了一个基本的研究问题:LLM 生成的误导信息是否比人类编写的误导信息具有更大的危害性?通过我们的实证研究,我们发现相比于具有相同语义的人类编写的误导信息,LLM 生成的误导信息对于人类和检测器来说更难以检测,这表明它可能具有更具欺骗性的风格,并有可能造成更大的伤害。我们还讨论了我们发现对抗 LLM 时的误导信息在信息时代和相应对策的影响。
Sep, 2023
在该研究中,我们提出了一种新颖的基于替换的上下文示例优化方法(SICO),通过精心设计的提示语,有效地使 ChatGPT 躲避现有的六个检测器,揭示了现有检测器的易感性,并展示了 SICO 的强大性能和可靠性,证实其作为该领域任何新检测器的有效评估协议。
May, 2023