大模型虽好,但开发者们都明白,看似强大能力的背后隐藏着致命缺陷:大模型缺乏真正可靠的上下文理解和记忆能力。
一个常见的误区是认为只要不断扩大模型的上下文就能解决问题。但现实是,当上下文窗口变得过大时,LLM 会出现「注意力迷失」的现象。当重要信息被淹没在输入的「噪音」之中,模型依然会误解信息、遗忘细节、进而得出不可靠的结论。
如何让大模型给出更可靠的回复?图数据库 Neo4j 的开发者关系副总裁 Stephen Chin 给出的答案是「基于 GraphRAG 的上下文工程」。

他在一场题为「Context Engineering: Connecting the Dots with Graphs」的演讲中系统阐释了自己的观点,简单来说:我们应该从「提示工程」转变为「上下文工程」,并使用知识图谱来增强 RAG 的能力和可靠性。

上下文工程是一门旨在系统性地塑造 AI 如何感知、记忆和推理信息的学科。它远不止于编写提示词,而是涵盖了为 AI 提供高质量、结构化信息的整个流程。
上下文工程分为四个主要部分:

这四个部分共同构成了一个动态的、目标驱动的上下文管道。其核心目标是提升输入给 LLM 的「信噪比」,让模型能够专注于最相关的信息,从而做出更可靠、更具可解释性的判断。
上下文工程的兴起,标志着我们从与 AI 的「对话」,进化到了对 AI 整个工作环境的「设计」。
在上下文工程的版图中,「记忆」是核心难题。一个没有可靠记忆的 AI,就像一个只能处理瞬时信息的计算器,无法进行真正复杂的、需要长期规划的任务。
Stephen 将 AI 的记忆分为两类:

构建这样一个双层记忆系统,目的是为了将最相关、最核心的上下文「置顶」到模型的注意力焦点区域,填补信息空白,同时清除那些导致幻觉和错误答案的噪音。这正是知识图谱大放异彩的领域。
在 LLM 的浪潮之前,知识图谱就作为一种强大的知识表示技术而存在。它用一种直观且强大的方式来组织和连接信息,非常适合解决 AI 的上下文和记忆问题。

知识图谱的基本构成非常简单:
{age: 30},「居住在」关系可以有属性 {since: "2010"}。Stephen 举了一个例子:一个表示 Ann 和 Dan 两人关系的知识图谱。

在这个图中,「Ann」和「Dan」是节点,「Car」也是节点。他们之间通过「KNOWS」、「LIVES_WITH」、「DRIVES」等关系连接。每个节点和关系都可以有自己的属性,比如汽车的型号是「Volvo V70」。更关键的是,节点上还可以存储「嵌入向量」(Embeddings),这为后续的向量检索提供了基础。
LLM 的优势在于语言、推理和创造力,而知识图谱的优势在于结构化的事实、上下文和可解释性。当这两者结合时,便能产生强大的协同效应。

知识图谱就像一个为 LLM 定制的外置大脑,一个代表了你的组织、业务或特定领域的「数字孪生」。
传统的 RAG 主要依赖于向量数据库进行语义相似度搜索。它将文档切分成块 (Chunks),计算嵌入向量,然后检索与用户问题最相似的文本块。这种方法虽然有效,但它忽略了信息之间固有的、丰富的关系。

GraphRAG 则是将知识图谱整合进 RAG 流程的下一代技术。其工作流程如下:
相比于传统的向量 RAG,GraphRAG 带来了几个优势:
实战演示:漏洞查询
在 Stephen 的第一个演示中,他使用了一个开源的知识图谱构建工具,将一份关于供应链安全的 VEX (Vulnerability Exploitability eXchange) 文档导入 Neo4j 数据库,自动构建了一个知识图谱。这份文档详细描述了 Jackson 库中的一个漏洞。

当向配置了 GraphRAG 的 LLM 提问「Jasper 库有什么漏洞?」时,系统明确回答「知识库中没有相关信息」,因为它在图中找不到关于 Jasper 的节点。这完美地展示了知识图谱的「闭合世界假设」,有效防止了幻觉。
而当提问「Jackson 库有什么漏洞?」时(即使有拼写错误),系统执行了一个两阶段的 GraphRAG 流程:
Jackson 漏洞最相关的初始节点。最终,LLM 基于这个子图,给出了一个极为详尽和准确的回答,包括漏洞的 CVE 编号、攻击类型、受影响版本以及修复建议。
随着 AI Agent 技术的兴起,对 AI 记忆和自主规划能力的要求越来越高。Agent 需要在多步任务中持续追踪状态、调用工具并做出决策。知识图谱为此提供了一个理想的记忆和推理框架。

Stephen 阐述了如何使用图谱作为 Agent 的记忆核心:
案例:更新演示文稿
假设用户需要对 LLM 说,「请根据我和 Sid 上次在 GIDS 大会演讲的内容,更新一下这个演示文稿。」

传统的 RAG 可能会陷入困境。它可能会找到关于 Stephen 的文档、关于 Sid 的文档、以及关于 GIDS 大会的文档,但很难将这三者精确地关联到「那一次特定的演讲」。
而基于图谱的记忆系统则可以轻松处理:
LLM 获得了关于「谁、和谁、在哪里、什么时候、做了什么」的完整、无歧义的上下文,从而可以高质量地完成「更新演示文稿」的任务。
这种处理多跳 (Multi-hop)、多约束复杂查询的能力,是知识图谱相较于简单向量检索的根本性优势。
在演讲的最后,Stephen 展示了更前沿的技术:Agentic Traversal,即让 AI Agent 具备自主遍历和探索知识图谱的能力。

实战演示:Agentic Claude 查询
在这个演示中,他将一个 Claude Agent 与 Neo4j 数据库通过一个开源的 Cypher 工具连接起来。当向这个 Agent 提出关于 Jackson 漏洞的同一个问题时,Agent 展现了自主规划和执行能力:

这种 Agentic 方法虽然执行时间更长,但它通过自主探索,最大化地利用了知识图谱中的信息,最终得到了质量极高的结果。
这代表了未来 AI 应用的一种重要模式:我们不再是为 AI 准备好一切,而是为 AI 提供一个高质量的知识环境和一个工具集,让它自己去探索、发现和解决问题。
Stephen Chin 的分享指明了后 RAG 时代的方向:构建真正强大、可靠和可信的 AI 系统,其核心挑战在于上下文。而解决这个挑战,需要我们从「提示工程师」的战术思维,升级到「信息架构师」的战略思维。
我们未来的工作,将不再是与单个 LLM 的反复博弈,而是设计、构建和维护一个高效的信息生态系统,让 AI 在其中可靠地运行。在这个生态系统中,知识图谱将扮演数据基石的角色,为 AI 提供结构化的事实、长期的记忆和可解释的推理路径。
从 RAG 到 GraphRAG,再到 Agentic Traversal,这条技术演进路线的核心,是让 AI 从一个单纯的「语言生成器」,进化为一个拥有记忆、能够利用结构化知识进行复杂推理的「认知引擎」。
如果你希望继续深入了解这一领域,Stephen 推荐了以下资源:
LLM 的浪潮仍在继续,但构建护城河的不再是模型本身,而是高质量的数据以及将数据转化为智能的能力。当 RAG 不足以精细支撑上下文工程时,也许是时候拾起知识图谱这项经典的技术了。