首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >RAG通俗易懂的理解

RAG通俗易懂的理解

作者头像
bisal
发布2026-04-15 16:46:03
发布2026-04-15 16:46:03
30
举报

一句话解释,RAG就是:让大模型在回答问题之前,先来"查资料",然后再根据查到的资料来回答。

如同:

  • 普通大模型 = 闭卷考试 → 全靠自己背过的知识(可能有错、过时、瞎编)
  • RAG = 开卷考试 → 允许翻书、查笔记,再作答 → 答案更靠谱

为什么需要 RAG?

大模型虽然很聪明,但它有几个天生的问题:

  1. 知识截止日期:模型训练时看到的数据只到某个时间点。之后发生的事情它一概不知。例如你问"今天北京天气怎么样",它不可能知道。
  2. 幻觉问题:碰到不知道的问题,它不会说"我不知道",而是会自信地瞎编。例如问一个冷门的历史人物,它可能编出一个看似合理但完全错误的故事。
  3. 无法访问私有数据:公司内部的文档、你的个人邮件、最新的行业报告……这些数据模型训练时没见过,它就无法回答。

RAG 正好能解决这三个问题。


RAG 是怎么工作的?

分三步走,就像你在做"开卷考试":

第一步:检索(找资料)
  • 用户问一个问题,例如:“我家猫咪最近不爱吃饭,怎么办?”
  • 系统立刻去一个知识库里搜索。这个知识库可以是:全网信息、公司内部文档、你自己的笔记、最新的兽医手册……
  • 搜索出最相关的几段内容,例如:"猫咪食欲不振的常见原因"、"如何判断猫咪是否生病"。
第二步:增强(打包资料)
  • 将检索到的相关段落 + 用户原来的问题,拼在一起,形成一个"增强后的提示"
  • 例如:"请根据以下资料回答问题:资料1……资料2…… 问题:我家猫咪最近不爱吃饭,怎么办?"
第三步:生成(作答)
  • 将增强后的提示交给大模型。
  • 大模型只根据提供的资料来生成回答,而不是依赖它自己可能过时或错误的记忆。
  • 这样答案既准确,又引用了具体来源。

举个例子

普通大模型(闭卷): 问:"2025年奥运会的主办城市是哪里?" 模型(知识只到2023年)可能回答:“2025年没有奥运会” 或瞎猜一个"巴黎"。(实际上2024巴黎,2025确实无夏季奥运会,但若问2026冬奥会它可能错) → 容易出错。

RAG 模型(开卷): 问同样问题 → 系统去维基百科或官方新闻检索 → 找到"2026年冬季奥运会将在米兰-科尔蒂纳举行" → 模型基于这个资料回答:"根据最新信息,2026年冬季奥运会将在意大利的米兰-科尔蒂纳举行。" → 准确,而且可以附上来源链接。


RAG 的三大好处

问题

RAG 如何解决

知识过时

实时检索最新资料(新闻、数据库、网页)

幻觉瞎编

强制模型基于检索到的真实内容作答,没有资料就不瞎说

无法访问私有数据

可以把公司内部文档、个人笔记作为知识库,实现"企业版GPT"


生活化的类比

  • 普通大模型:就像一个记忆力超强但从不翻书的"学霸"。他能答对所有课本上有的题,但课本更新了他不知道,碰到没学过的他就开始胡编。
  • RAG:就像一个会用搜索引擎的"聪明学生"。他不会将所有知识背下来,但遇到问题立刻查资料,然后总结出答案。他永远不会说"我以为",而是说"资料显示"。

你可能已经用过的 RAG

  • New Bing / Copilot:你问一个问题,它会先搜索网络,再根据搜索结果回答。
  • ChatGPT 的"浏览"模式:开启后可以联网检索。
  • 企业内部的知识库问答机器人:你问"公司年假怎么申请",它去查公司 HR 文档,然后准确回答。

因此,RAG = 检索 + 生成 = 让大模型先查资料再答题,相当于给它配了一个"实时图书馆"。它既保留了模型的强大总结能力,又弥补了模型知识有限、容易瞎编的缺陷。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-04-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 bisal的个人杂货铺 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 为什么需要 RAG?
  • RAG 是怎么工作的?
    • 第一步:检索(找资料)
    • 第二步:增强(打包资料)
    • 第三步:生成(作答)
  • 举个例子
  • RAG 的三大好处
  • 生活化的类比
  • 你可能已经用过的 RAG
  • 因此,RAG = 检索 + 生成 = 让大模型先查资料再答题,相当于给它配了一个"实时图书馆"。它既保留了模型的强大总结能力,又弥补了模型知识有限、容易瞎编的缺陷。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档