BriefGPT.xyz
Oct, 2024
知识编辑真的能纠正幻觉吗?
Can Knowledge Editing Really Correct Hallucinations?
HTML
PDF
Baixiang Huang, Canyu Chen, Xiongxiao Xu, Ali Payani, Kai Shu
TL;DR
本研究针对大型语言模型(LLMs)存在的幻觉问题,即生成内容中的虚假信息,提出了全新的评估平台HalluEditBench。通过构建一个包含9个领域、26个主题及6000多条幻觉的庞大数据集,系统评估了知识编辑方法在五个维度上的效果,为知识编辑领域的未来改进和发展提供了新的见解。
Abstract
Large Language Models
(LLMs) suffer from
Hallucinations
, referring to the non-factual information in generated content, despite their superior capacities across tasks. Meanwhile,
→