图上的计划:知识图谱上大型语言模型的自我纠正自适应规划
Liyi Chen, Panrong Tong, Zhongming Jin, Ying Sun, Jieping Ye, Hui Xiong arXiv:2410.23875
[ cs.AI
]
github:liyichen-cly/PoG
By
摘要
大型语言模型(LLMs)在复杂任务上展示了显著的推理能力,但它们仍然受到知识过时、幻觉和不透明决策的困扰。相比之下,知识图谱(KGs)可以为LLMs提供明确且可编辑的知识,以缓解这些问题。现有的KG增强LLM范式手动预定义探索空间的广度,并要求在KGs中无瑕疵地导航。然而,这种范式无法根据问题语义自适应地探索KGs中的推理路径,也无法自我纠正错误的推理路径,导致效率和效果的瓶颈。为了解决这些限制,我们提出了一种名为Plan-on-Graph(PoG)的新型自我纠正自适应规划范式,用于KG增强的LLM,该范式首先将问题分解为若干子目标,然后重复自适应探索推理路径、更新记忆和反思是否需要自我纠正错误推理路径的过程,直到得出答案。具体来说,设计了指导、记忆和反思三个重要机制,共同工作,以保证图推理自我纠正规划的自适应广度。最后,在三个真实世界数据集上的大量实验证明了PoG的有效性和效率。