ReAct Agent 技术实现主要依赖于精心设计的 Prompt 模板、输出解析器和执行循环三大核心机制。
1. 核心 Prompt 工程
LangChain 使用特定的 Prompt 模板引导 LLM 按Thought → Action → Observation格式输出:
# 简化的 Prompt 结构 template = """ 用以下工具回答问题: 工具: - search: 搜索引擎, 输入: "查询词" - calculator: 计算器, 输入: "算式" 现在开始! 问题: {input} Thought: {agent_scratchpad} """关键设计:
agent_scratchpad:存储历史 Thought-Action-Observation 链,确保上下文连续- 工具描述:每个工具都有标准化描述,帮助 LLM 理解何时使用
- Few-shot 示例:内置典型交互样例,教会 LLM 输出格式
2. 输出解析机制
LLM 输出纯文本后,通过AgentOutputParser解析结构化数据:
# LLM 输出示例文本 """ Thought: 需要计算 2+2*2 Action: calculator Action Input: "2+2*2" """解析过程:
- 正则匹配:提取
Thought:/Action:/Action Input:块 - 格式验证:确保符合预定 schema,否则触发格式错误处理
- 工具映射:将 Action 字符串映射到具体工具实例
关键代码(简化):
class ReActParser: def parse(self, text: str): thought = re.search(r"Thought: (.*?)\n", text).group(1) action = re.search(r"Action: (.*?)\n", text).group(1) action_input = re.search(r"Action Input: (.*?)\n", text).group(1) return AgentAction(tool=action, input=action_input, log=thought)3. AgentExecutor 循环控制
这是 ReAct 的"大脑",管理整个执行流程:
class AgentExecutor: def run(self, query): # 初始化 scratchpad = "" # 交互历史 steps = 0 while steps < max_iterations: # 1. 调用 LLM 生成下一步 llm_output = self.llm( prompt.format(input=query, agent_scratchpad=scratchpad) ) # 2. 解析输出 action = self.output_parser(llm_output) # 3. 判断终止条件 if isinstance(action, AgentFinish): return action.return_values["output"] # 4. 执行工具 observation = self.tools[action.tool].run(action.input) # 5. 更新 scratchpad scratchpad += f"{action.log}\nObservation: {observation}\nThought: " steps += 1 return "达到最大迭代次数"关键设计模式:
- while 循环:实现 Thought-Action-Observation 循环
- scratchpad 累积:将每轮结果追加,形成完整上下文
- 终止判断:当解析出
AgentFinish时返回最终结果
4. 工具调用架构
工具通过标准化接口集成:
class BaseTool: name: str # 工具唯一标识 description: str # 给 LLM 看的说明 args_schema: BaseModel # 参数结构 def _run(self, input: str) -> str: # 具体实现 pass动态注册机制:
# 工具自动发现 tools = [ Tool(name="search", func=search_api, description="搜索引擎..."), Tool(name="calculator", func=calculate, description="计算器...") ] # 传递给 Agent agent = create_react_agent(llm, tools, prompt)5. 错误处理与鲁棒性
常见错误类型:
- 格式错误:LLM 未按指定格式输出 → 捕获异常并重新提示
- 工具不存在:LLM 幻想了不存在的工具 → 返回错误 Observation
- 参数错误:工具调用参数格式不对 → 捕获异常并反馈
自我修复机制:
except OutputParserException: # 将错误信息加入 scratchpad,让 LLM 自我纠正 scratchpad += f"解析错误,请严格遵循格式:Action: tool_name\nAction Input: input\n" continue # 重新循环6. 记忆管理
ReAct Agent 的记忆体现在两个层面:
短期记忆(核心):
agent_scratchpad:当前任务的交互历史- 每轮循环自动清空,任务结束即丢弃
长期记忆(可选):
- 集成
ConversationBufferMemory实现多轮对话 - 在 Prompt 中注入历史对话摘要
技术实现总结
| 组件 | 实现方式 | 关键技术 |
|---|---|---|
| 推理生成 | Prompt Engineering + LLM 调用 | Few-shot、Scratchpad |
| 行动解析 | 正则/结构化输出解析 | Pydantic、OutputParser |
| 工具执行 | 标准化接口 + 动态调用 | BaseTool、回调机制 |
| 循环控制 | While 循环 + 状态机 | AgentExecutor、终止判断 |
| 错误恢复 | 异常捕获 + 上下文反馈 | Try-Except、自我修复 |
这种设计将确定性代码逻辑(循环、解析)与非确定性 LLM 生成完美结合,既保证了流程可控,又充分发挥了 LLM 的灵活性。
学习资源推荐
如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示
因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取
四、AI大模型商业化落地方案
作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。