甘孜藏族自治州网站建设_网站建设公司_一站式建站_seo优化
2026/1/16 15:58:20 网站建设 项目流程

前言

大模型的出现彻底改变了AI交互的方式,日常聊天对话早已不是新鲜事。但要让大模型真正落地到工作场景,解决专业问题、规避“胡言乱语”,RAG技术无疑是核心抓手——它也是当前大模型知识问答场景中普及率最高、实用性最强的技术方案。今天就带大家从0到1吃透RAG,从原理到实战一步步讲透,新手也能轻松上手。

RAG的概念与背景

RAG,全称Retrieval-Augmented Generation(检索增强生成),核心逻辑是为大模型“外挂知识库”,通过检索外部精准信息来辅助生成回答,而非让模型仅依赖自身训练数据作答。

很多人会疑惑:大模型本身就具备强大的生成能力,为何还需要检索增强?举个贴近职场的例子就懂了:你问大模型“本公司2025年新修订的考勤管理制度”,由于模型训练数据有时间截止线,且公司内部制度属于私有知识,它根本无法给出准确答案。而RAG的作用的就是,当你提出这个问题时,系统会先去公司内部知识库中检索对应的制度文件,再将检索到的精准内容作为参考,连同问题一起传给大模型,让其基于真实依据生成回答,彻底避免“幻觉”。

RAG的过程

RAG分为检索、生成两个阶段

1、在线检索,对用户输入进行向量化,然后比较用户输入的向量与知识库向量,计算语义相似性;同时也可以结合关键词检索,尽可能扩大召回率

2、在线生成,将召回的相关知识+用户提问,利用提示词工程调用大模型,最终输出问题的答案

说明

1)当然RAG离不开离线知识库构建,将文档切片、向量化,存储到向量数据库,文本内容也会做存储,同时标签、摘要、文件名这些元数据也可以存储,丰富检索维度。

2)向量化是个啥?简单理解就是通过向量化对文本内容做一个编码处理,这样可以方便的比较文本之间的语义相似度,也就是可以把和用户问题相关的文本内容给检索出来。

为什么需要RAG?

1、大模型的知识是有时间限度的(模型截止训练时间),也是有空间限度的(有些专业领域知识模型是没有的),这些缺失的知识,就会导致模型幻觉。这个时候,就需要借助私有知识来弥补大模型知识的不足

2、通过大模型微调也可以实现类似效果,但是微调成本很高,当基座大模型更新有更新或者私有知识有更新的情况,又面临再次微调的问题,而RAG可以随时更新知识内容

RAG的改进

由于生成阶段的输出,依赖检索阶段的结果,因此对于检索前后的优化,就是RAG优化的重点。

1、在检索前,对问题进行改写,检索后进行重排序(保证最相关的结果排最前面)

2、Agentic RAG,将RAG过程模块化,可以灵活组合,增加意图路由、问题的扩写、拆分,上下文记忆、多路召回等,复杂度更高

RAG的挑战

1、难于评估,一个是召回率,一个是生成质量

2、未来方向,目前主要是文本检索,后续还会涉及多模态检索。以及结合agent架构的RAG,比如可以在生成完成后,自我评价结果,根据情况进行改进。

RAG的实现

RAG的基础实现过程

1、数据准备与清洗,对word、pdf等文档进行解析,并选择的合适的切片策略,尽量避免不同分块语义的断裂 2、索引构建,将分块后的文本调用嵌入模型(embedding)生成向量,存入向量库,可以关联元数据(页码、作者、主题等信息,方便后续引用、多维护检索) 3、检索,最基本的是向量检索,同时也可以进行关键词检索,从而实现混合检索,检索之后还可以增加重排序 4、生成,基于提示词模板,让大模型基于参考文档、用户问题,回答用户问题,需要强调“依据参考文档无法回答,则回复不知道”,避免模型幻觉问题

RAG具体实现方式

1、dify、豆包、fastgpt、毕昇这些智能体平台,直接创建知识库,进行知识问答

2、编码实现,基于langchain、LLamaIndex等AI开发框架

langchain是一个全面的AI应用开发框架,相比较而言LLamaIndex主要是用于RAG应用开发。这里我们举一个langchain实现简单RAG过程的代码案例。

import os# hugging face镜像设置,如果国内环境无法使用启用该设置os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"from dotenv import load_dotenvfrom langchain_community.document_loaders import UnstructuredMarkdownLoaderfrom langchain_text_splitters import RecursiveCharacterTextSplitterfrom langchain_huggingface import HuggingFaceEmbeddingsfrom langchain_core.vectorstores import InMemoryVectorStorefrom langchain_core.prompts import ChatPromptTemplatefrom langchain_deepseek import ChatDeepSeekfrom langchain_openai import ChatOpenAIload_dotenv()markdown_path = "test.md"# 加载本地markdown文件loader = UnstructuredMarkdownLoader(markdown_path)docs = loader.load()print("load ok")# 文本分块text_splitter = RecursiveCharacterTextSplitter(chunk_size=512, chunk_overlap=100)chunks = text_splitter.split_documents(docs)print("split ok")# 中文嵌入模型embeddings = HuggingFaceEmbeddings( model_name="BAAI/bge-small-zh-v1.5", model_kwargs={"device": "cpu"}, encode_kwargs={"normalize_embeddings": True},)print("embedding ok")# 构建向量存储vectorstore = InMemoryVectorStore(embeddings)vectorstore.add_documents(chunks)print("add doc ok")# 提示词模板prompt = ChatPromptTemplate.from_template( """请根据下面提供的上下文信息来回答问题。请确保你的回答完全基于这些上下文。如果上下文中没有足够的信息来回答问题,请直接告知:“抱歉,我无法根据提供的上下文找到相关信息来回答此问题。”上下文:{context}问题: {question}回答:""")# 配置大语言模型llm = ChatOpenAI( # model="deepseek-chat", model="qwen3-max-2025-09-23", temperature=0.7, max_tokens=4096, api_key=os.getenv("DASHSCOPE_API_KEY"), base_url=os.getenv("DASHSCOPE_BASE_URL"),)# 用户查询question = "rag的过程是什么?"# 在向量存储中查询相关文档retrieved_docs = vectorstore.similarity_search(question, k=3)docs_content = "\n\n".join(doc.page_content for doc in retrieved_docs)answer = llm.invoke(prompt.format(question=question, context=docs_content))print(answer.content)

通过以上代码,可以看到RAG的几个主要过程:

1)文档加载

2)文本分块

3)分块向量化

4)写入数据库

5)内容检索

6)利用提示词模板,调用大模型,生成回复

如上代码只是示例,真实场景中,知识库构建和问答的分开的。知识库会提前构建好,然后就可以随时问答,而不需要每次问答都需要文档加载分块向量化入库等操作。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2025 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要《AI大模型入门+进阶学习资源包》下方扫码获取~

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

以上资料如何领取?

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询