Skip to content

知识增强语言模型提示用于零样本知识图谱问答

By , ,
arXiv:2306.04136 [ cs.CL ]

摘要

大型语言模型(LLMs)能够执行零样本闭卷问答任务,基于其在预训练期间存储在参数中的内部知识。然而,这种内部化的知识可能不足且不正确,这可能导致LLMs生成事实错误的答案。此外,微调LLMs以更新其知识是昂贵的。为此,我们提出直接在LLMs的输入中增强知识。具体来说,我们首先根据问题与其相关事实之间的语义相似性,从知识图谱中检索与输入问题相关的事实。之后,我们将检索到的事实以提示的形式添加到输入问题之前,然后将其转发给LLMs以生成答案。我们的框架,知识增强语言模型提示(KAPING),不需要模型训练,因此完全是零样本的。我们在知识图谱问答任务上验证了KAPING框架的性能,该任务旨在基于知识图谱中的事实回答用户的问题,我们的框架在多个不同大小的LLMs上,平均比相关零样本基线高出48%。