什么是RAG技术?
作者:程序员马丁
note
Ragent AI —— 从 0 到 1 纯手工打造企业级 Agentic RAG,拒绝 Demo 玩具!AI 时代,助你拿个offer。
从一个实际问题开始
1. 大模型是怎么工作的?
在聊 RAG 之前,先花两分钟搞清楚大语言模型(LLM)是怎 么回事。搞懂这个,后面的内容就好理解了。
1.1 训练阶段:疯狂阅读
大模型训练这事,说白了就是让 AI 读互联网上海量的文本,从里面学规律、学知识。

经过这番训练,模型学会了三类东西:
- 语言规律:怎么组织句子、怎么表达才通顺。
- 世界知识:历史事件、科学常识这些。
- 推理能力:因果关系、逻辑推断。
1.2 推理阶段:预测下一个词
你跟大模型聊天的时候,它其实就在干一件事:根据你输入的内容,一个字一个字地往后猜。
你的输入:今天北京的天气
模型预测:怎 → 么 → 样 → ? → 根 → 据 → ...
有点像文字接龙——根据训练 时学到的规律,每次猜一个最可能的字,串起来就是完整的回答。
这里有个关键点:模型的所有知识都是训练阶段灌进去的,推理的时候只是在用这些知识,没法获取新的。
2. 大模型的五大局限性
理解了工作原理,就很容易理解为什么大模型在实际应用中会遇到麻烦。
2.1 幻觉问题:一本正经地胡说八道
这是最让人头疼的问题。大模型有时会生成看起来很合理、但实际上完全错误的内容。

实际上这个人名是我故意编纂的,而回答的公司中也不存在这个人。当然,现在相对于 AI 刚出来的时候已经好很多了,拿这个例子来说,很多高版本的 AI 已经能结合联网搜索等功能,将幻觉问题降低了很多。
为什么会这样?因为模型的本质是预测概率最高的下一个词,它并不真正理解事实。当它对某个问题不确定时,它不会说我不知道,而是会生成一个看起来像答案的内容。