无尘阁日记

无尘阁日记

什么是RAG?
2026-03-23

你这里大概率想问的是 RAG,不是 GAG。我查了目前主流资料,业界普遍讲的是 RAG = Retrieval-Augmented Generation(检索增强生成),核心就是:让模型在回答前,先去你的资料里找证据,再基于这些证据作答。它常被用于“基于企业知识库回答”“只根据公司文档回复”“聊天问文档”等场景。(Amazon Web Services, Inc.)

一、先用白领最容易懂的话讲清楚

你可以把 RAG 理解成:

给 AI 配一个“会翻资料的秘书”。

普通 AI 像一个很聪明但有时会“想当然”的员工。
你问它问题,它会凭自己训练时学过的内容回答,但这些内容未必是你公司的最新制度、你的真实合同、你的会议纪要。

而 RAG 的做法是:

先让 AI 去翻你指定的资料,再让它回答。

所以它不是“靠印象回答”,
而是“先查档,再回话”。

微软和 AWS 的官方资料都把 RAG 描述为:让大模型在生成回答前,引用训练数据之外的外部权威知识库,尤其适合接入企业私有内容或经常变化的信息。(Amazon Web Services, Inc.)

二、RAG 到底解决什么问题

大模型单独用时,常见有三个问题:

1. 它不知道你公司的内部资料

比如你问:

“我们公司的出差报销标准是多少?”
“这个客户的最新合同约定是什么?”
“去年 12 月会议上老板最终拍板的是 A 方案还是 B 方案?”

这些内容往往不在模型训练数据里。
它再聪明,也不可能天然知道你公司的内部文件。

2. 它容易“一本正经地说错”

这就是大家常说的“幻觉”。
也就是它会组织语言、说得很像真的,但其实没有依据。

RAG 的目的之一,就是让答案尽量“有出处、有根据”,从而减少这种乱答。官方资料也强调,RAG 的价值之一就是把回答建立在外部知识上,提升相关性和准确性。(Amazon Web Services, Inc.)

3. 你的资料经常变

公司制度、价格表、产品参数、法律政策、项目进度,这些东西经常变。
如果每变一次就去重新训练模型,成本极高,也不现实。

RAG 的好处就是:

资料更新了,知识库更新就行,不一定要重训模型。

微软文档明确提到,RAG 特别适合处理私有数据和频繁变化的信息。(Microsoft Learn)

三、RAG 的工作流程,到底是怎么跑的

你可以把它想成下面这条链路:

第一步:你先把资料交给系统

这些资料可以是:

合同
制度文档
培训手册
会议纪要
产品资料
FAQ
数据库导出的记录
网页内容
客服知识库

第二步:系统先把资料“切碎、建索引”

因为一整本几十页、几百页文档不能每次都整本丢给模型。
所以系统通常会把文档切成很多小段,比如一段一段、一页一页、按标题分块,然后建立检索索引。微软文档把“索引”视为 RAG 的关键部分,因为系统要先找到最相关的内容,再交给模型生成答案。(Microsoft Learn)

第三步:用户提问

比如你问:

“员工因公出差到上海,住宿标准上限是多少?”

第四步:系统先去知识库里找最相关的几段内容

不是直接回答,
而是先搜:

“报销制度”“差旅”“上海”“住宿标准”“上限”等相关段落。

第五步:把搜到的材料一并交给模型

相当于对模型说:

“不要乱猜,就根据这几段资料来回答。”

第六步:模型基于找到的资料生成答案

最终给你一个更像“查证后”的答复。
如果做得更规范,还会附上出处、文档名、原文段落。

AWS 对 RAG 的概括也基本是这个逻辑:检索相关文档,把它们作为上下文增强提示词,然后再由模型生成最终答案。(AWS 文档)

四、你那句话“只基于真实资料回答”是什么意思

这句话本质上是在强调:

不要让 AI 凭空发挥,而要让它只根据你提供的资料说话。

但这里要注意一个现实问题:

1. RAG 不是天然百分之百“只会照着资料说”

它是“尽量基于资料回答”,
不是“天然绝不越界”。

因为最后回答的仍然是大模型。
如果系统提示词没管好、检索没找准、文档切分有问题,模型仍可能夹带自己的推断。

所以真正企业里要做“只基于资料回答”,通常会增加这些限制:

限制一:明确提示词

例如:

“只能基于提供的上下文回答。”
“如果资料里没有答案,直接说不知道。”
“不要补充上下文以外的推测。”

限制二:要求引用证据

回答时要带出处、文档名称、段落号。

限制三:检索不到就不答

系统可以设置:
没搜到足够相关的材料,就返回“未在资料中找到依据”。

限制四:做审核或置信度判断

如果证据不够,就降级处理,甚至交给人工。

这也是为什么生产级 RAG 不只是“接个知识库”那么简单,微软官方也特别强调,概念虽然简单,但落地实现会面临不少挑战。(Microsoft Learn)

五、一个最贴近办公室的例子

假设你公司有这些资料:

《员工手册》
《差旅报销制度》
《项目立项流程》
《客户报价审批规范》

这时员工问:

“北京到深圳出差,机票和酒店标准怎么报?”

没有 RAG 时

AI 可能会说:

“一般企业酒店标准是 500 元到 800 元……”

听起来很合理,
但这不一定是你们公司的标准。

有 RAG 时

系统会先去《差旅报销制度》里找相关条款,
比如找到:

“深圳住宿标准:总监级 800 元以内,经理级 600 元以内,普通员工 450 元以内。”

然后 AI 才回答:

“根据《差旅报销制度》,深圳住宿标准按职级执行:总监级 800 元以内,经理级 600 元以内,普通员工 450 元以内。若超标,需提前走审批流程。”

这就叫:

不是在猜,而是在引用你公司的真实规定。

六、RAG 的核心组成,用最通俗的话讲

一个最基础的 RAG 系统,通常由这几部分组成:

1. 文档源

就是你的资料从哪来。
比如 PDF、Word、Excel、网页、数据库、飞书文档、知识库系统。

2. 文档处理

把资料洗干净、切成小块。
例如去掉乱码、表头表尾、重复页眉页脚,把长文按章节拆开。

3. 检索系统

它负责在大量资料中快速找到“和问题最相关”的内容。
现代 RAG 常见做法是用搜索索引、向量索引,或者两者结合。微软文档明确提到 RAG 是“搜索 + 大模型”的组合。(Microsoft Learn)

4. 大模型

负责把找到的资料“组织成人话”,生成用户能直接看的答案。

5. 规则层

告诉模型:

能不能推测
检索不到怎么办
要不要引用
能不能结合常识补充
哪些资料优先级更高

企业里,真正好不好用,很多时候不是看模型有多大,
而是看这套规则做得细不细。

七、RAG 的优点,到底值在哪里

1. 更像“有依据的回答”

因为它先查资料再回答,
比纯靠模型记忆更稳。

2. 能接企业私有知识

这是它最重要的商业价值。
你公司的制度、项目文档、历史案例,都能成为 AI 的知识来源。(Microsoft Learn)

3. 更新快

文档变了,更新知识库即可。
不必每次都训练大模型。(Microsoft Learn)

4. 更容易做权限控制

比如财务资料只能财务看,法务资料只能法务看。
检索层可以按权限过滤,回答自然也跟着受限。

5. 更适合企业落地

因为企业最在意的不是“模型多聪明”,
而是“它说的话有没有根据,能不能接我的真实业务资料”。

八、RAG 也有局限,不是装上就万能

1. 资料烂,答案就烂

如果文档本身过期、混乱、互相矛盾,
那 RAG 也会检索到错误材料。

所以很多企业做 RAG,第一步不是接模型,
而是先治理文档。

AWS 也专门给过文档最佳实践,强调资料的组织、格式和清晰度会直接影响 RAG 效果。(AWS 文档)

2. 检索不准,回答就跑偏

如果用户问的是“项目终审口径”,
系统却搜到了“项目初审规范”,
那后面的回答再流畅也没用。

3. 表格、图片、复杂流程图不一定好处理

纯文本最好做。
复杂 Excel、扫描件、流程图、图片里的信息,相对更难。

4. 它不是绝对不会胡说

RAG 能降低胡说概率,
但不能保证零幻觉。
所以企业场景通常要加引用、置信度、人工兜底。(Microsoft Learn)

九、RAG 和微调,到底什么关系

这个很多人会混。

1. RAG

像是给 AI 配了一个“外部资料库”。
问题来了先查资料,再回答。
重点是:知识在外面。

2. 微调

像是直接“训练 AI 的说话方式和能力偏好”。
重点是:能力被写进模型里。

更通俗地说:

RAG 更像“开卷考试”
微调更像“提前培训员工”

如果你主要是想让 AI 会用你公司的资料,
一般先考虑 RAG。
因为它更灵活、更新也更方便。微软的开发者文档也把“用 RAG 增强模型”和“微调”作为两种不同路线来讨论。(Microsoft Learn)

十、企业里最常见的 RAG 场景

1. 制度问答

员工问报销、请假、审批、合同流程。

2. 客服知识库

客户问产品功能、售后规则、退款政策。

3. 销售助手

根据历史方案、产品手册、竞品文档回答销售问题。

4. 法务/合规查询

快速定位合同条款、制度要求、监管口径。

5. 项目资料问答

基于项目立项书、会议纪要、验收材料回答问题。

6. 内部培训助手

新员工可以直接问“这个流程怎么走”“这个字段是什么意思”。

十一、如果你要做一个“只基于资料回答”的系统,最关键的不是模型,而是这几点

1. 资料是否干净

过期文档、重复版本、错版内容要先清掉。

2. 文档是否切得合理

切太碎,上下文不完整。
切太大,又容易塞不进提示词。

3. 检索是否准确

要能把真正相关的段落找到,而不是只找关键词表面相似的内容。

4. 提示词是否管得住模型

必须明确写清楚:

“只能依据资料回答。”
“没有依据就说没有找到。”
“禁止自行编造。”

5. 是否展示出处

不给出处,用户很难信。
给出处,用户更容易接受,也方便复核。

十二、你可以直接拿去讲的一版通俗定义

你可以这样对别人说:

RAG,就是给 AI 接上一个你自己的知识库。它回答问题前,不是先瞎想,而是先去你的真实资料里查找相关内容,再根据查到的内容来回答。这样一来,AI 说的话就更像“查了公司文件以后给你的回复”,而不是凭空猜。

再短一点就是:

RAG = 先查资料,再生成答案。

再白领一点就是:

RAG,就是让 AI 从“会聊天”,升级成“会翻你公司资料再聊天”。

十三、最后顺手纠正一下你这次的写法

你这次说的 GAG,大概率是手误。
你想表达的应该是 RAG。目前主流云厂商和技术文档都在讲 RAG,且把它定义为将检索与生成结合、让回答建立在外部或私有资料之上的模式。(Amazon Web Services, Inc.)