陕西省网站建设_网站建设公司_Vue_seo优化
2026/1/16 16:35:31 网站建设 项目流程

文章解析AI三大核心技术:LLMs作为"天才大脑"提供思考能力但知识有限;RAG作为记忆系统连接外部知识库解决实时性问题;AI Agent作为执行层实现自主行动。三者非竞争关系,而是协同工作,分别负责思考、认知和执行,共同构建完整AI应用架构,是初学者必备基础知识。


对于接触 AI 相关的朋友,平时都会遇到很多新的概念,先不说什么大模型的技术性的术语,就AI应用方面的术语就非常多。

而且,现在还是依旧层出不穷。

在技术迭代到一定程度之后,它就必然会满足更多的实际场景,而要满足某些实际场景的话,并不是单单依靠某个单一技术就可以实现的。

举个例子来说,大家知道计算机技术最开始其实只有CPU和内存等外置硬件设备,那个时候都是基于命令行方式来做一些计算工作,普通人想要用起来计算机的话,门槛极高。

后来便有了Linux这类操作系统,它可以支持自定义编程,也就是在计算机硬件基础上来开发满足实际场景的软件,这里面最典型的就是操作系统,也就是我们现在用的Window、Mac等操作系统。

这时候,计算机(PC)和Windows、MAC等等都是当时为了满足大众使用计算机所创造出的术语/名词,通过这个概念名词来定义某个技术的作用是什么,相当于给它们起一个名字来表示。

继续沿着操作系统之后,就知道后面有很多基于操作系统之上的新名词诞生,例如Web浏览器、客户端软件、Client/Server技术架构等等,这些又都是在操作系统之上为了满足更多实际场景而开发出来的新东西,而每一个都是满足当时场景下的新名词。

所以,在AI成为新的普适性的技术底座之前,必然会有更多的名词定义出来,而它也是为了满足特定场景,解决特定问题所存在的必然。

今天我们主要讲明白关于LLMs、RAG和AI Agent这三个定义的区别到底是什么?这三者目前已经是做AI相关应用绕不过去的名词,也是作为初入AI应用开发者,必须了解掌握的基础知识。

首先,要先注意一点:它们并不是竞争技术,而是在三个不同层面,满足不同实际场景的能力展示,另外大部分人对它们使用方式都是错误的。

LLM 全称是大语言模型(Large Language Model),它是AI应用的“天才大脑”,这个天才大脑学习了过去上下五千年的所有知识,是的,是所有知识,堪比“全能人”。

这个“天才大脑”你问它啥,它都能回答上来,甚至还能帮助我们写写文章、分析点东西、编程、画画等等的。

LLMs也分为很多种,有底座大模型,例如ChatGPT、DeepSeek、Qwen等等,也有专有大模型,也就是专门用来画画,专门用来编写的模型,例如绘画模型:Midjourney、Stable Diffusion、Flux等等,编程模型:Claude、Curos、kimi-k2-thing等等。

专有模型某种意义上来说,也是基于底座通用大模型来单独训练出来的能力,也就是让“天才大脑”对于某一个方面特别精通,做了专项的训练。

但是,这个大模型有一个问题,它只能知道过去已经发生的时候,在上面也提到了,它是基于过去的所有知识训练、学习出来的,所以,它的知识内容啊,是有某一个时间节点的,例如ChatGPT-5的知识时间就是2024年6月,单独问这个模型2025年的事情,它都不知道。

当然,现在是有了联网搜索的能力了,但是这种其实是在大模型之外的Agent助手,通过这个外部Agent助手,可以爬取网站的数据,或者通过搜索引擎(Baidu、Bing、Google等)来获取相关数据,然后在交给大模型来总结分析。

总结起来:LLM 在思考方面非常出色,但对当前情况却一无所知。

这个时候,就可以引出第二个名词解释,就是RAG。

RAG(Retrieval-Augmented Generation,检索增强生成)可以说是一个记忆系统,它可以将原本静态固定的“天才大脑”LLM中的知识,链接到外部实时的知识库,当你提问问题的时候,RAG会主动搜索外部数据,拉去相关文档,并将它们作为上下文输入到LLM中。

这样就好比于,原本是一个“书呆子”,突然打开了视野,变得灵活多动了,对于原来静态的大模型来说,动态信息、实时数据也就以为这它不需要重新训练了。

在大模型训练(也就是模型学习知识的过程)是一个非常高昂成本的过程,啥意思?就是费钱,不仅仅要买书、还要营养跟得上,不然动不动就卡壳、生病(出bug)啥的,所以,要用很多高端GPU卡,来吸收海量数据才能让这个大脑学会知识。

最基础的工具是能够访问最新信息的能力。检索增强生成(RAG)为智能体提供了一张“借书证”,使其能查询外部知识,这些知识通常存储在向量数据库或知识图谱中——从公司内部文档到通过谷歌搜索获取的网络知识,应有尽有。对于结构化数据,自然语言到SQL(NL2SQL)工具则使智能体能够直接查询数据库,从而解答诸如“上个季度我们的畅销产品有哪些?”这类分析性问题。通过在发言前先查找相关信息——无论是来自文档还是数据库——智能体得以立足于事实,显著地减少幻觉。

RAG 流程结合了两个关键步骤:

1. 检索(Retrieval):

当用户提出问题时,系统首先从一个或多个外部、定制化的知识库(如公司的内部文件、最新的数据库、特定领域文档等)中,检索出最相关的小块信息(Chunk)。

  1. 增强生成(Augmented Generation):

然后,系统将用户的原始问题和检索到的相关信息作为上下文(Context)输入给 LLM,指示 LLM 严格基于这些上下文信息来生成答案。

RAG 就像是给那个“全能天才大脑”配备了一位随身图书馆助理

1. 知识更新与定制:

当你问一个关于“公司最新财报”或“某本专业书籍第十章内容”的问题时,RAG 不会依赖 LLM 内部的旧知识,而是立即去检索公司内部最新的文档。

2. 消除幻觉:

通过提供事实依据,RAG 极大地降低了 LLM “胡编乱造”的风险,因为它生成的答案是有据可查的。

3. 引用来源:

优秀的 RAG 系统还能提供它查找信息的来源链接或文档页码,增加了可信度。

接下来还有最后一个名词,就是AI Agent,也叫做AI智能体,为啥叫智能体?

结合上面,LLM是思考,RAG是提供信息,但是它俩都不具备行动能力,有脑,有手,但是不知道怎么走路。

而AI Agent也就是智能体,它就是围绕大脑LLM构建一个循环控制系统,能够感知目标、规划步骤、执行动作、并能够反思结果。

本质上,智能体通过一个连续的循环过程来实现其目标。它可被分解为五个基本步骤:

  1. 获取任务:该过程由一个具体且高层次的目标启动。此任务可由用户(例如:“为团队安排即将召开的会议出行事宜”)提供,或由自动触发机制(例如:“新收到一封高优先级客户工单”)激活。

  2. 扫描场景:Agent感知到环境中获取上下文信息。这涉及协调层访问其可用资源:“用户请求的内容是什么?”、“我的术语记忆中有哪些信息?我是否已尝试过执行此任务?”、“用户上周是否曾向我提供过指导?”、“我能从我的工具(如日历、数据库或API)中访问哪些内容?”

  3. 仔细思考:这是智能体的核心“思考”循环,由推理模型驱动。

智能体首先将任务(步骤1)与场景(步骤2)进行分析,并制定行动计划。这并非单一的思考过程,而通常是一系列连续的推理链条:“要预订行程,我首先需要知道团队成员都有谁,因此我会使用get_team_roster工具;接下来,我还需要通过calendar_api检查他们的日程安排。”

  1. 采取行动:编排层执行计划的第一步具体操作。它会选择并调用适当的工具——无论是调用API、运行代码函数,还是查询数据库。这是代理基于自身内部推理,真正作用于外部世界的行为。

  2. 观察并迭代:智能体观察其行动的结果。get_team_roster工具会返回一个包含五个名字的列表。这些新信息将被添加到智能体的上下文或“记忆”中。随后,循环再次启动,回到步骤3:“现在我已获得名单,下一步是查询日历,确认这五个人的日程安排。我将使用calendar_api。”

而真正的生产系统会叠加所有三个:用 LLM 进行推理**,用 RAG 确保准确性,以及用Agent框架实现自主性。**

使用 LLM 单独处理纯语言任务时:写作、摘要、解释。

当准确性至关重要时添加 RAG:从内部文档、技术手册、特定领域知识中回答。

需要真正自主性时部署 Agents:能够决策、行动和管理复杂工作流的系统。

未来不在于选择其一。而在于将三者结合起来进行架构设计。

用于思考的 LLMs。

用于认知的 RAG。

用于执行的Agent。

由此才能够构建出AI智能时代

如何系统的学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:

国内大模型相关岗位缺口达47万

初级工程师平均薪资28K(数据来源:BOSS直聘报告)

70%企业存在"能用模型不会调优"的痛点

真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!

02.大模型 AI 学习和面试资料

1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工

📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)





第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询