Jun, 2024

改进基于逻辑回归的检测器中不使用黑盒 LLMs 的逻辑回归

TL;DR大规模语言模型在文本生成方面产生了重大影响,难以区分机器和人类生成的文本的界限提出了新的挑战,而且阻碍了黑盒 LLMs 的准确检测方法。为了解决这些限制,提出了一种创新的框架 Distribution-Aligned LLMs Detection (DALD),在没有源 LLMs 的准确日志的情况下,通过对公开可访问的高级模型(如 ChatGPT、GPT-4 和 Claude-3)的样本进行细化调优,实现了与未知源模型分布的同步,从而提高了检测能力和对快速模型迭代的韧性。