引言
《智能体设计模式:智能系统构建实战指南》系统性地阐述了构建智能体系统的核心模式与实践方法。本书提出的智能体未来五大假设为智能系统设计提供了理论框架,强调多智能体系统的效能受限于所用LLM的推理能力,且智能体之间真正互相学习和协同提升仍面临挑战。

一、基础执行模式
1.1 提示链模式 (Prompt Chaining)
提示链通过将复杂问题拆解为一系列更简单、易管理的子任务,为引导大语言模型提供了稳健框架。分而治之策略让模型每次专注于单一操作,显著提升输出的可靠性和可控性。
核心要点:
- 提示链的可靠性高度依赖于各步骤间数据的完整性
- 作为基础模式,支持构建具备多步推理、工具集成和状态管理能力的高级智能体
- 掌握提示链是打造具备复杂流程执行能力、上下文感知系统的关键
1.2 规划模式 (Planning)
当用户请求过于复杂,无法通过单一行动或工具完成时,应采用规划模式。它非常适合自动化多步骤流程,如生成详细研究报告、新员工入职或执行竞品分析。
经验法则: 只要任务需要一系列相互依赖的操作以实现最终综合结果,都建议应用规划模式。
1.3 路由与并行化
路由模式引入条件逻辑,使智能体能根据输入上下文选择最合适的路径或工具。并行化通过并行执行独立子任务提升效率,适用于可分解为独立部分的复杂任务。
小结: 基础执行模式构成了智能体行动的基础。Prompt Chaining通过线性分步拆解问题,Routing引入条件逻辑实现灵活行为,Parallelization提升执行效率,Planning让智能体从执行者升级为战略家。
二、多智能体协作
2.1 协作模式概述
多智能体协作模式设计系统时,多个独立或半独立智能体共同实现目标。每个智能体有明确角色、目标,并可能访问不同工具或知识库。该模式的核心在于智能体间的互动与协同。
2.2 协作形式
协作形式包括:
- 顺序交接:一个智能体完成任务后,将输出传递给下一个智能体
- 并行处理:多个智能体同时处理问题不同部分,结果后续合并
- 辩论与共识:智能体基于不同视角和信息源讨论,最终达成共识或更优决策
- 层级结构:协调者智能体负责理解整体目标、拆解任务并分配给专职智能体
graph TB
subgraph 协作形式
subgraph 顺序交接
A1[智能体1] --> A2[智能体2] --> A3[智能体3]
end
subgraph 并行处理
B0[任务分发] --> B1[智能体A]
B0 --> B2[智能体B]
B0 --> B3[智能体C]
B1 & B2 & B3 --> B4[结果合并]
end
subgraph 辩论与共识
C1[智能体X] <--> C2[智能体Y]
C1 & C2 --> C3[达成共识]
end
end
小结: 多智能体协作通过明确的角色分工和协作机制,实现了超越单一智能体能力的复杂任务处理。通信通常由协调者管理,共享"便签板"或消息总线也是常见通信方式。
三、记忆与学习机制
3.1 记忆管理
LangChain提供如ConversationBuffer等记忆组件,LangGraph支持高级长期记忆,通过store保存和检索语义事实、情景经历或可更新规则,跨用户会话持久化。
3.2 学习与适应
智能体通过改变策略、理解或目标来适应环境,这对处于不可预测、变化或新环境中的智能体尤为重要。主要学习方式包括:
| 学习方式 | 适用场景 |
|---|---|
| 强化学习 (RL) | 控制机器人或玩游戏 |
| 监督学习 | 邮件分类或趋势预测 |
| 无监督学习 | 无明确指导的数据探索 |
| 少样本/零样本学习 | 快速适应新任务 |
| 在线学习 | 实时反应和动态环境 |
| 基于记忆的学习 | 具备记忆回溯能力的智能体 |
3.3 关键技术
PPO (Proximal Policy Optimization) 是一种强化学习算法,常用于训练在连续动作空间中的智能体,其核心目标是稳定且可靠地提升智能体的决策策略。
DPO (Direct Preference Optimization) 通过直接优化语言模型的人类偏好数据,简化了对齐流程。其数学机制直接将偏好数据与最优策略关联,教模型"提升生成偏好响应的概率,降低生成不受欢迎响应的概率"。
RLVR (Reinforcement Learning with Verifiable Rewards) 是2025年推理模型的关键技术,通过可验证奖励进行强化学习,摆脱了对人类显式推理示范的依赖。
补充信息: AlphaEvolve与OpenEvolve是自我改进编程智能体的代表。OpenEvolve内部架构由控制器管理,协调程序采样器、程序数据库、评估池和LLM集群,核心功能是促进学习与适应,提升代码质量。
小结: 记忆管理为智能体提供短期对话上下文和长期知识记忆。Reflection和Self-Correction模式让智能体能自我批判输出,发现错误并迭代优化,提升结果质量。
四、通信协议
4.1 MCP (Model Context Protocol)
MCP与工具函数调用都能让LLM执行文本生成之外的操作,但在抽象层次和实现方式上有明显区别。
安全性考量: 任何协议暴露工具和数据都需强安全措施。MCP实现必须支持认证。传统API包装为MCP接口而不做优化,智能体的表现可能很差。底层API应支持确定性特性,如过滤和排序,帮助智能体高效工作。
FastMCP 是高层Python框架,简化MCP服务器开发。它通过Python装饰器快速定义工具、资源和Prompt,并自动生成AI模型接口规范。
补充信息: MCP由Anthropic于2024年11月发布并开源,2025年由Linux Foundation托管,被誉为"AI的USB-C"。2025年3月OpenAI正式采纳该协议,将在ChatGPT桌面应用等产品中集成支持。
4.2 A2A (Agent-to-Agent) 协议
A2A涉及三类主要实体:
- 用户:发起智能体协助请求
- A2A客户端:代表用户请求操作或信息的应用或智能体
- A2A服务器:提供HTTP端点以处理客户端请求并返回结果的智能体或系统
Agent Card 是Agent的数字身份,通常为JSON文件,包含智能体身份、端点URL、版本号、支持的能力、具体技能、默认输入/输出模式及认证要求。
交互机制:
- 同步请求/响应:适用于快速操作
- 异步轮询:适合耗时任务
- 流式更新(SSE):适用于实时、增量结果
- 推送通知(Webhook):适合超长或资源密集型任务
补充信息: A2A协议由Google于2025年4月开源并捐赠给Linux基金会,旨在让跨公司、跨平台的Agent如同人类同事般自动分派任务、协同作业。
4.3 MCP vs A2A 对比
graph LR
subgraph MCP["MCP: Agent与工具连接"]
direction LR
M1[LLM/Agent] --> M2[工具/数据源]
end
subgraph A2A["A2A: Agent间协作"]
direction LR
A1[Agent A] <--> A2[Agent B]
end
MCP关注智能体与外部数据和工具的上下文结构化,而A2A专注于智能体间的协调与通信,实现任务委托与协作。两者互为补充。
小结: MCP解决了LLM连接外部工具的N×M集成问题,A2A则实现了跨平台Agent协作。系统的有效性依赖于高效沟通,这两个模式规范了智能体与工具、智能体间的信息交换。
五、知识检索 (RAG)
5.1 向量数据库
向量数据库专为高效存储和查询嵌入设计。传统关键词检索只能找到包含查询词的文档,无法理解语义。向量数据库专注于语义搜索,将文本以数值向量存储,能根据概念意义检索结果。
主流实现包括Pinecone、Weaviate、Chroma DB、Milvus、Qdrant等,底层检索机制常用FAISS、ScaNN等库。
5.2 GraphRAG
GraphRAG利用知识图谱技术增强RAG,通过理解数据间的连接,能提供更具上下文和细致度的答案。应用场景包括复杂金融分析、企业与市场事件关联、科学研究(如基因与疾病关系发现)。
补充信息: GraphRAG由微软于2024年4月推出,同年7月开源。它将LLM的能力从单纯的文本理解延伸到知识图谱的构建与应用,优化了RAG的检索和上下文质量。
主要缺点: 构建和维护高质量知识图谱的复杂性、成本和专业要求极高,系统灵活性较低,延迟也可能增加。
5.3 智能体 RAG
智能体RAG是标准检索模式的高级演化,引入推理和决策层,显著提升信息提取的可靠性。智能体作为关键把关者,擅长反思和来源验证。
graph LR
subgraph RAG演进
A[标准RAG
向量检索] --> B[GraphRAG
知识图谱]
B --> C[智能体RAG
推理+检索]
end
智能体RAG的优势:
- 评估来源、调和冲突
- 拆解复杂问题
- 调用外部工具验证
挑战: 智能体层带来复杂性和成本的大幅提升,设计、实现和维护智能体的决策逻辑及工具集成需大量工程投入。
小结: 当需要LLM基于最新、专有或训练数据之外的信息回答问题或生成内容时,建议采用RAG模式。智能体RAG将其从被动数据管道转变为主动问题解决框架。
六、推理技术
6.1 推理扩展定律
推理扩展定律描述了LLM性能与推理阶段分配计算资源的关系。核心观点是:通过推理阶段增加计算资源(如生成多个候选答案并筛选),小模型也能获得优异结果。
这挑战了"模型越大越好"的直觉,强调合理分配推理资源可优化性能、响应延迟和运维成本。
6.2 CoT、CoD、GoD
Chain of Thought (CoT) 通过模拟逐步思考过程,显著增强了LLMs的复杂推理能力。零样本CoT仅需在提示中加入"让我们一步一步思考"等语句。
Chain of Debate (CoD) 是微软提出的AI框架,多个模型协作辩论解决问题,超越单一AI的链式思维。类似"AI圆桌会议",不同模型提出观点、互相批评、交换反驳意见。
Graph of Debate (GoD) 是更高级的智能体框架,将讨论建模为动态非线性网络。每个论点为节点,边表示"支持"或"反驳"等关系,结论是找到最有力的论点集。
graph TB
subgraph 推理技术演进
A["CoT
思维链
(单一推理)"] --> B["CoD
辩论链
(多模型协作)"]
B --> C["GoD
辩论图
(动态网络辩论)"]
end
6.3 RLVR
可验证奖励强化学习(RLVR)是2025年推理模型的关键突破。传统链式思维仅生成单一推理路径,难以适应复杂问题。新型"推理模型"通过推理前分配可变"思考时间",生成更长、更动态的推理链,支持自我纠错。
小结: 一个核心原则是在推理阶段分配更多的计算资源,允许智能体或底层大模型拥有更多的处理时间或步骤来分析问题并生成响应。推理时增加计算资源,能显著提升准确性、连贯性和健壮性。
七、系统保障机制
7.1 目标设定与监控
目标应具体、可衡量、可达成、相关且有时限(SMART)。明确指标和成功标准是有效监控的关键。该模式要求建立持续监控机制,实时追踪智能体及环境状态,形成关键反馈回路。
7.2 异常处理与恢复
异常处理与恢复是构建健壮可靠智能体的基础,包括:
- 错误检测:验证工具输出、检查API错误码和超时
- 处理策略:日志记录、重试、备用方案、优雅降级和通知
- 恢复:诊断、自我修正或升级
7.3 Human-in-the-Loop (HITL)
HITL的核心原则是确保AI在伦理边界内运行,遵循安全协议。在错误可能带来重大安全、伦理或财务后果的领域(如医疗、金融、自动化系统)部署AI时应采用该模式。
经验法则: 对于LLM难以可靠处理的模糊和细致任务(如内容审核、复杂客服升级)尤为重要。需要用高质量人工标注数据持续优化AI模型时,也应采用HITL。
7.4 护栏与安全
随着智能体和LLM越来越自主,若无约束,可能带来不可预测风险,生成有害、偏见、伦理或事实错误内容。系统易受Jailbreak等对抗攻击,绕过安全协议。
小结: 系统保障机制确保智能体在复杂、模糊或高风险领域安全运行。异常处理与恢复是基础,HITL确保关键决策有人类监督,护栏与安全防止失控行为。
八、提示工程与框架
8.1 高级提示技术
核心原则:
- 清晰与具体:指令必须明确、具体,语言模型依赖模式识别
- 简洁:在保证具体性的前提下简明扼要
- 正面指令优于约束:明确期望行为优于强调不希望的行为
少样本提示 通过提供示例帮助模型理解任务,合理选择零样本、单样本和少样本提示技术是提升智能体系统有效性的关键。
提示结构化 通过不同部分清晰分隔信息,包括:
- 系统提示:设定模型整体行为
- 角色提示:为模型分配特定身份
- 分隔符使用:区分指令、上下文、示例和输入
上下文工程 的核心原则是:即使模型再先进,若缺乏丰富或合理的环境视角,表现也会受限。
8.2 LangChain / LangGraph
LangChain 是用于开发由LLM驱动应用的框架,核心优势在于LangChain表达式语言(LCEL),可以将各个组件"管道化"串联成链,适用于有向无环图(DAG)式的工作流。
LangGraph 是基于LangChain构建的高级智能体系统库,允许将工作流定义为图结构,最大优势是支持循环,可灵活实现任务重试、工具调用等。LangGraph显式管理应用状态,状态对象在节点间传递并不断更新。
小结: 掌握全方位提示技术,是将通用语言模型升级为具备自主性、感知力和智能的智能体系统的关键。系统可靠性依赖于各组件输出的可预测性,请求结构化数据并用Pydantic等工具校验是实现自动化的必要条件。
九、探索与未来
9.1 探索与发现模式
探索与发现模式是真正智能体系统的核心,定义了智能体超越被动执行、主动探索环境的能力。这种内在驱动力使AI能在复杂领域自主行动,不仅完成任务,还能独立设定子目标,发现新信息。
多智能体框架最能体现高级智能体行为,每个智能体在协作中承担主动角色。例如,Google Co-Scientist通过智能体自主生成、辩论和进化科学假设。
9.2 未来趋势展望
展望未来,多个新趋势与挑战将推动智能系统不断突破:
- 推理能力深化:未来智能体需能应对模糊性、进行抽象与因果推理,甚至具备常识,可能需要与新型模型架构和神经符号方法深度融合
- 协议标准化:MCP和A2A等协议的普及将加速智能体生态的互联互通
- 自主性提升:从被动执行到主动探索,智能体将具备更强的自我改进能力
未来,我们不再只是AI的使用者,而是智能系统的架构师,助力解决世界最复杂的问题。画布已铺展,模式尽在你手,现在,是时候开始创造了。
总结
《智能体设计模式》构建了一个完整的智能系统设计方法论体系,从基础执行到高级协作,从记忆学习到通信协议,层层递进。
核心架构可归纳为三个层次:
-
执行层:Prompt Chaining、Routing、Parallelization和Planning构成了智能体行动的基础,让智能体具备任务分解和战略规划能力。
-
交互层:Tool Use使智能体能够调用外部系统,Knowledge Retrieval(RAG)让智能体能查询知识库,MCP和A2A规范了智能体与工具、智能体间的信息交换。
-
进化层:Memory Management提供上下文保持能力,Reflection和Self-Correction实现自我批判,Learning and Adaptation模式让智能体持续改进。
关键洞见: 书中最具前瞻性的观点是推理扩展定律——通过推理阶段增加计算资源,小模型也能获得优异结果。这挑战了"模型越大越好"的直觉,为资源受限场景下的智能体部署提供了新思路。
实践启示: 智能体设计不是单一模式的应用,而是多种模式的有机组合。基础执行模式是骨架,通信协议是神经网络,记忆学习是认知基础,系统保障是免疫系统。只有理解这些模式的协同关系,才能构建真正健壮、可靠的智能系统。
参考文献
- Robeyns, M., Aitchison, L., & Szummer, M. (2025). “A Self-Improving Coding Agent.” arXiv: 2504.15228
- OpenEvolve: GitHub - codelion/openevolve
- SMART目标框架 - wikipedia.org
如果您喜欢此博客或发现它对您有用,欢迎您共享此博客,以便更多人可以参与。 如果博客中使用的图像侵犯了您的版权,请与作者联系以将其删除。 谢谢 !