--- title: "LLMs、RAG、AI Agent 三个到底什么区别?" source: "https://mp.weixin.qq.com/s/8B_Phrjz_Mlvpe7vJ3maPA" author: - "[[易程LEO]]" published: created: 2025-11-19 description: "主要讲明白关于LLMs、RAG和AI Agent这三个定义的区别到底是什么?这三者目前已经是做AI相关应用绕不过去的名词,也是作为初入AI应用开发者,必须了解掌握的基础知识。" tags: - "clippings" --- #llm #rag #ai-agent ![Image](https://mmbiz.qpic.cn/mmbiz_png/VUgKicbG7iaMvyVYdNszaOVC9DnZLpg1HzVXtJF72DYMAicb3hZS4xWMztibicCAYAxkF2hTAlHyxoiaiayF0kibFnYgSg/640?wx_fmt=png&from=appmsg&watermark=1&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=0) 对于接触 AI 相关的朋友,平时都会遇到很多新的概念,先不说什么大模型的技术性的术语,就AI应用方面的术语就非常多。 而且,现在还是依旧层出不穷。 在技术迭代到一定程度之后,它就必然会满足更多的实际场景,而要满足某些实际场景的话,并不是单单依靠某个单一技术就可以实现的。 举个例子来说,大家知道计算机技术最开始其实只有CPU和内存等外置硬件设备,那个时候都是基于命令行方式来做一些计算工作,普通人想要用起来计算机的话,门槛极高。 后来便有了Linux这类操作系统,它可以支持自定义编程,也就是在计算机硬件基础上来开发满足实际场景的软件,这里面最典型的就是操作系统,也就是我们现在用的Window、Mac等操作系统。 这时候,计算机(PC)和Windows、MAC等等都是当时为了满足大众使用计算机所创造出的术语/名词,通过这个概念名词来定义某个技术的作用是什么,相当于给它们起一个名字来表示。 继续沿着操作系统之后,就知道后面有很多基于操作系统之上的新名词诞生,例如Web浏览器、客户端软件、Client/Server技术架构等等,这些又都是在操作系统之上为了满足更多实际场景而开发出来的新东西,而每一个都是满足当时场景下的新名词。 所以,在AI成为新的普适性的技术底座之前,必然会有更多的名词定义出来,而它也是为了满足特定场景,解决特定问题所存在的必然。 今天我们主要讲明白关于LLMs、RAG和AI Agent这三个定义的区别到底是什么?这三者目前已经是做AI相关应用绕不过去的名词,也是作为初入AI应用开发者,必须了解掌握的基础知识。 首先,要先注意一点:它们并不是竞争技术,而是在三个不同层面,满足不同实际场景的能力展示,另外大部分人对它们使用方式都是错误的。 LLM 全称是大语言模型(Large Language Model),它是AI应用的“天才大脑”,这个天才大脑学习了过去上下五千年的所有知识,是的,是所有知识,堪比“全能人”。 这个“天才大脑”你问它啥,它都能回答上来,甚至还能帮助我们写写文章、分析点东西、编程、画画等等的。 LLMs也分为很多种,有底座大模型,例如ChatGPT、DeepSeek、Qwen等等,也有专有大模型,也就是专门用来画画,专门用来编写的模型,例如绘画模型:Midjourney、Stable Diffusion、Flux等等,编程模型:Claude、Curos、kimi-k2-thing等等。 专有模型某种意义上来说,也是基于底座通用大模型来单独训练出来的能力,也就是让“天才大脑”对于某一个方面特别精通,做了专项的训练。 但是,这个大模型有一个问题,它只能知道过去已经发生的时候,在上面也提到了,它是基于过去的所有知识训练、学习出来的,所以,它的知识内容啊,是有某一个时间节点的,例如ChatGPT-5的知识时间就是2024年6月,单独问这个模型2025年的事情,它都不知道。 ![Image](http://zipline.ishenwei.online/u/yqHe8q.webp) 当然,现在是有了联网搜索的能力了,但是这种其实是在大模型之外的Agent助手,通过这个外部Agent助手,可以爬取网站的数据,或者通过搜索引擎(Baidu、Bing、Google等)来获取相关数据,然后在交给大模型来总结分析。 总结起来:LLM 在思考方面非常出色,但对当前情况却一无所知。 ![Image](http://zipline.ishenwei.online/u/u7EkRH.webp) 这个时候,就可以引出第二个名词解释,就是RAG。 RAG(Retrieval-Augmented Generation,检索增强生成)可以说是一个记忆系统,它可以将原本静态固定的“天才大脑”LLM中的知识,链接到外部实时的知识库,当你提问问题的时候,RAG会主动搜索外部数据,拉去相关文档,并将它们作为上下文输入到LLM中。 这样就好比于,原本是一个“书呆子”,突然打开了视野,变得灵活多动了,对于原来静态的大模型来说,动态信息、实时数据也就以为这它不需要重新训练了。 在大模型训练(也就是模型学习知识的过程)是一个非常高昂成本的过程,啥意思?就是费钱,不仅仅要买书、还要营养跟得上,不然动不动就卡壳、生病(出bug)啥的,所以,要用很多高端GPU卡,来吸收海量数据才能让这个大脑学会知识。 最基础的工具是能够访问最新信息的能力。检索增强生成(RAG)为智能体提供了一张“借书证”,使其能查询外部知识,这些知识通常存储在向量数据库或知识图谱中——从公司内部文档到通过谷歌搜索获取的网络知识,应有尽有。对于结构化数据,自然语言到SQL(NL2SQL)工具则使智能体能够直接查询数据库,从而解答诸如“上个季度我们的畅销产品有哪些?”这类分析性问题。通过在发言前先查找相关信息——无论是来自文档还是数据库——智能体得以立足于事实,显著地减少幻觉。 RAG 流程结合了两个关键步骤: **1\. 检索(Retrieval):** 当用户提出问题时,系统首先从一个或多个 **外部、定制化** 的知识库(如公司的内部文件、最新的数据库、特定领域文档等)中,检索出最相关的小块信息(Chunk)。 2\. 增强生成(Augmented Generation): 然后,系统将用户的原始问题和检索到的相关信息作为 **上下文** (Context)输入给 LLM,指示 LLM 严格基于这些上下文信息来生成答案。 ![Image](http://zipline.ishenwei.online/u/eSxFEm.webp) RAG 就像是给那个“全能天才大脑”配备了一位 **随身图书馆助理** : **1\. 知识更新与定制:** 当你问一个关于“公司最新财报”或“某本专业书籍第十章内容”的问题时,RAG 不会依赖 LLM 内部的旧知识,而是立即去检索公司内部最新的文档。 **2\. 消除幻觉:** 通过提供 **事实依据** ,RAG 极大地降低了 LLM “胡编乱造”的风险,因为它生成的答案是 **有据可查** 的。 **3\. 引用来源:** 优秀的 RAG 系统还能提供它查找信息的 **来源链接或文档页码** ,增加了可信度。 接下来还有最后一个名词,就是AI Agent,也叫做AI智能体,为啥叫智能体? 结合上面,LLM是思考,RAG是提供信息,但 是它俩都不具备行动能力,有脑,有手,但是不知道怎么走路。 而AI Agent也就是智能体,它就是围绕大脑LLM构建一个循环控制系统,能够感知目标、规划步骤、执行动作、并能够反思结果。 本质上,智能体通过一个连续的循环过程来实现其目标。它可被分解为五个基本步骤: 1\. 获取任务:该过程由一个具体且高层次的目标启动。此任务可由用户(例如:“为团队安排即将召开的会议出行事宜”)提供,或由自动触发机制(例如:“新收到一封高优先级客户工单”)激活。 2\. 扫描场景:Agent感知到环境中获取上下文信息。这涉及协调层访问其可用资源:“用户请求的内容是什么?”、“我的术语记忆中有哪些信息?我是否已尝试过执行此任务?”、“用户上周是否曾向我提供过指导?”、“我能从我的工具(如日历、数据库或API)中访问哪些内容?” 3\. 仔细思考:这是智能体的核心“思考”循环,由推理模型驱动。 智能体首先将任务(步骤1)与场景(步骤2)进行分析,并制定行动计划。这并非单一的思考过程,而通常是一系列连续的推理链条:“要预订行程,我首先需要知道团队成员都有谁,因此我会使用get\_team\_roster工具;接下来,我还需要通过calendar\_api检查他们的日程安排。” 4\. 采取行动:编排层执行计划的第一步具体操作。它会选择并调用适当的工具——无论是调用API、运行代码函数,还是查询数据库。这是代理基于自身内部推理,真正作用于外部世界的行为。 5\. 观察并迭代:智能体观察其行动的结果。get\_team\_roster工具会返回一个包含五个名字的列表。这些新信息将被添加到智能体的上下文或“记忆”中。随后,循环再次启动,回到步骤3:“现在我已获得名单,下一步是查询日历,确认这五个人的日程安排。我将使用calendar\_api。” ![Image](http://zipline.ishenwei.online/u/UpOsHD.webp) 而真正的生产系统会叠加所 有三个: **用 LLM 进行推理** **,用 RAG 确保准确性,以及用Agent框架实现自主性。** **使用 LLM 单独处理纯语言任务时:写作、摘要、解释。** **当准确性至关重要时添加 RAG:从内部文档、技术手册、特定领域知识中回答。** **需要真正自主性时部署 Agents:能够决策、行动和管理复杂工作流的系统。** 未来不在于选择其一。而在于将三者结合起来进行架构设计。 用于思考的 LLMs。 用于认知的 RAG。 用于执行的Agent。 由此才能够构建出AI智能时代